WO2017018388A1 - ウェアラブル装置、制御方法及び制御プログラム - Google Patents

ウェアラブル装置、制御方法及び制御プログラム Download PDF

Info

Publication number
WO2017018388A1
WO2017018388A1 PCT/JP2016/071767 JP2016071767W WO2017018388A1 WO 2017018388 A1 WO2017018388 A1 WO 2017018388A1 JP 2016071767 W JP2016071767 W JP 2016071767W WO 2017018388 A1 WO2017018388 A1 WO 2017018388A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
wearable device
upper limb
control unit
user
Prior art date
Application number
PCT/JP2016/071767
Other languages
English (en)
French (fr)
Inventor
伸悟 伊東
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to JP2017530864A priority Critical patent/JP6595597B2/ja
Priority to US15/748,121 priority patent/US10551932B2/en
Publication of WO2017018388A1 publication Critical patent/WO2017018388A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • This application relates to a wearable device that can be worn on a user's head, a control method, and a control program.
  • the purpose of the present application is to provide a wearable device, a control method, and a control program that are easier to use.
  • a wearable device includes a display unit that displays characters, a detection unit that detects an upper limb of a user in a real space, a part of the upper limb based on a detection result of the detection unit, and the like.
  • a control unit that executes a character selection process for selecting the character is attachable to the head.
  • the wearable device includes a display unit that displays characters, a detection unit that detects an upper limb of a user in a real space, and a detection result of the detection unit, and a part of the upper limb. And a control unit that executes a character type changing process for changing the character type of the character when a body motion accompanied by a change in the distance from the other part is detected.
  • a wearable device includes a display unit that is arranged in front of the user's eyes and displays characters, a detection unit that detects an upper limb of the user in a real space, and detection of the detection unit From the results, a wearable device that can be worn on the user's head, comprising a control unit that detects the physical movement of the upper limb, wherein the control unit displays the character input screen on the display unit when the character input screen is displayed.
  • a character string input before display is displayed, it is determined whether or not a predetermined physical motion is detected among the physical motions. When it is determined that the predetermined physical motion is detected, the character string is determined. Clear the display.
  • the wearable device includes a display unit that displays a character string including a plurality of characters, a detection unit that detects an upper limb of a user in a real space, and the character string, A control unit that executes a character selection process that selects a first character string included in a range defined by the position of a part of the upper limb detected by the detection unit and the position of the other part.
  • the wearable device is capable of the predetermined body of the upper limb in a state in which the distance between the part and the other part is maintained substantially the same during the character selection process. Based on the detection of the action, a predetermined process is executed on the first character string.
  • a control method includes a wearable device that can be worn on a head, including a display unit that displays characters, a detection unit that detects an upper limb of a user in a real space, and a control unit.
  • the control method to be executed, wherein the control unit selects the character when detecting a first body motion in which a part of the upper limb approaches another part from the detection result of the detection unit. Execute.
  • a control program is provided in a wearable device that can be worn on a head, including a display unit that displays characters, a detection unit that detects an upper limb of a user in a real space, and a control unit.
  • the control unit detects a first body motion in which a part of the upper limb approaches another part from the detection result of the detection unit, the control unit causes the control unit to execute a character selection process for selecting the character.
  • FIG. 1 is a perspective view of the wearable device 1.
  • the wearable device 1 is a head mount type (or glasses type) device that is worn on the user's head.
  • the wearable device 1 has a front surface portion 1a, a side surface portion 1b, and a side surface portion 1c.
  • Front part 1a is arranged in front of the user so as to cover both eyes of the user when worn.
  • the side surface portion 1b is connected to one end portion of the front surface portion 1a.
  • Side part 1c is connected to the other end of front part 1a.
  • the side surface portion 1b and the side surface portion 1c are supported by a user's ear like a vine of glasses when worn, and stabilize the wearable device 1.
  • the side part 1b and the side part 1c may be configured to be connected to the back of the user's head when worn.
  • the front part 1a includes a display part 2a and a display part 2b on the surface facing the user's eyes when worn.
  • the display unit 2a is disposed at a position facing the user's right eye when worn.
  • the display unit 2b is disposed at a position facing the user's left eye when worn.
  • the display unit 2a displays an image for the right eye
  • the display unit 2b displays an image for the left eye.
  • the wearable device 1 can realize three-dimensional display using parallax of both eyes by including the display unit 2a and the display unit 2b that display images corresponding to each eye of the user when worn. .
  • the display unit 2a and the display unit 2b are a pair of transmissive or semi-transmissive displays, but are not limited thereto.
  • the display unit 2a and the display unit 2b may include lenses such as an eyeglass lens, a sunglasses lens, and an ultraviolet cut lens, and the display unit 2a and the display unit 2b may be provided separately from the lens.
  • the display unit 2a and the display unit 2b may be configured by a single display device as long as different images can be independently provided to the user's right eye and left eye.
  • the imaging unit 3 (out camera) is provided on the front part 1a.
  • the imaging unit 3 is disposed at the central portion of the front surface portion 1a.
  • the imaging unit 3 acquires an image in a predetermined range in the scenery in front of the user.
  • the imaging unit 3 can also acquire an image in a range corresponding to the user's field of view.
  • the field of view here is a field of view when the user is looking at the front, for example.
  • the imaging unit 3 includes an imaging unit disposed in the vicinity of one end (the right eye side at the time of mounting) of the front surface portion 1a and the other end (the left eye side at the time of mounting) of the front surface portion 1a. It may be constituted by two with the imaging unit arranged in.
  • the imaging unit disposed in the vicinity of one end portion (the right eye side at the time of wearing) of the front surface portion 1a can acquire an image in a range corresponding to the field of view of the user's right eye.
  • the imaging unit disposed in the vicinity of one end portion (the left eye side at the time of wearing) of the front surface portion 1a can acquire an image in a range corresponding to the field of view of the user's left eye.
  • an imaging unit 4 (in-camera) is provided on the front surface 1a.
  • the imaging unit 4 is arranged on the face side of the user in the front surface part 1a when the wearable device 1 is mounted on the user's head.
  • the imaging unit 4 can acquire an image of a user's face, for example, an eye.
  • the front unit 1a is provided with a detection unit 5.
  • the detection part 5 is arrange
  • the side surface portion 1c is provided with an operation unit 6. The detection unit 5 and the operation unit 6 will be described later.
  • Wearable device 1 has a function of making a user visually recognize various information.
  • the wearable device 1 allows the user to visually recognize the foreground through the display unit 2a and the display unit 2b.
  • the wearable device 1 allows the user to visually recognize the foreground through the display unit 2a and the display unit 2b and the display contents of the display unit 2a and the display unit 2b. .
  • FIG. 2 is a block diagram of the wearable device 1.
  • the wearable device 1 may be a display unit 2a, a display unit 2b, an imaging unit 3 (out camera), and an imaging unit 4 (in camera), a detection unit 5, an operation unit 6, and a control.
  • the display units 2a and 2b include a transflective or transmissive display device such as a liquid crystal display (Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) panel.
  • the display unit 2a and the display unit 2b display various types of information as images in accordance with control signals input from the control unit 7.
  • the display unit 2 a and the display unit 2 b display predetermined characters based on the control of the control unit 7.
  • the display unit 2a and the display unit 2b may be a projection device that projects an image on a user's retina using a light source such as a laser beam.
  • the display unit 2a and the display unit 2b may have a configuration in which a half mirror is installed on the lens part of the wearable device 1 simulating glasses and an image irradiated from a separately provided projector is projected ( In the example shown in FIG. 1, the display unit 2a and the display unit 2b are rectangular half mirrors). As described above, the display unit 2a and the display unit 2b may display various information three-dimensionally. Further, the display unit 2a and the display unit 2b may display various information as if they existed in front of the user (a position away from the user).
  • a method for displaying information in this way for example, a frame sequential method, a polarization method, a linear polarization method, a circular polarization method, a top and bottom method, a side-by-side method, an anaglyph method, a lenticular method, a parallax barrier method, a liquid crystal parallax method.
  • a multi-parallax method such as a barrier method and a two-parallax method may be employed.
  • the imaging unit 3 and the imaging unit 4 electronically capture an image using an image sensor such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor). Then, the imaging unit 3 and the imaging unit 4 convert the captured image into a signal and output the signal to the control unit 7.
  • an image sensor such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor). Then, the imaging unit 3 and the imaging unit 4 convert the captured image into a signal and output the signal to the control unit 7.
  • the detection unit 5 detects an actual object (predetermined object) existing in the foreground of the user.
  • the detection unit 5 detects, for example, a pre-registered object or an object that matches a pre-registered shape among real objects.
  • the pre-registered object includes, for example, a human hand or finger.
  • the shape registered in advance includes, for example, the shape of a human hand or finger.
  • the detection unit 5 includes a sensor that detects an actual object.
  • the detection unit 5 includes, for example, an infrared irradiation unit that irradiates infrared rays, and an infrared imaging unit as a sensor that can receive infrared rays reflected from an actual predetermined object.
  • the infrared irradiation unit By providing the infrared irradiation unit on the front surface 1a of the wearable device 1, it is possible to irradiate infrared rays in front of the user. Further, the infrared imaging unit is provided on the front surface part 1a of the wearable device 1, so that infrared rays reflected from a predetermined object in front of the user can be detected. Note that the detection unit 5 may detect an actual object using at least one of visible light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance in addition to infrared light.
  • the imaging unit 3 (out camera) may also serve as the detection unit 5. That is, the imaging unit 3 detects an object in the imaging range by analyzing the image to be captured.
  • the imaging unit 3 is provided on the front part 1a of the wearable device 1 as shown in FIG. 1 so that a predetermined object in front of the user can be imaged.
  • the operation unit 6 includes, for example, a touch sensor disposed on the side surface portion 1c.
  • the touch sensor can detect a user's contact, and accepts basic operations such as starting and stopping the wearable device 1 and changing the operation mode according to the detection result.
  • the operation portion 6 may be disposed on the side surface portion 1b, or may be disposed on the side surface portion 1b and the side surface portion 1c. It may be arranged on both sides.
  • the control unit 7 includes a CPU (Central Processing Unit) that is a calculation means and a memory that is a storage means.
  • the control unit 7 implements various functions by executing programs using these hardware resources. Specifically, the control unit 7 reads a program or data stored in the storage unit 9 and expands it in a memory, and causes the CPU to execute instructions included in the program expanded in the memory. And the control part 7 reads / writes data with respect to a memory and the memory
  • a CPU Central Processing Unit
  • the communication unit 8 communicates wirelessly.
  • the wireless communication standards supported by the communication unit 8 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InteroperabilityCableD), WiMAX (Worldwide InteroperabilityCableD). (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network).
  • the communication unit 8 may support one or more of the communication standards described above.
  • the wearable device 1 can transmit and receive various signals, for example, by performing wireless communication connection with other electronic devices (smartphones, notebook computers, televisions, and the like) having a wireless communication function.
  • wearable device 1 includes a connector to which another electronic device is connected.
  • the connector may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), or an earphone microphone connector.
  • the connector may be a dedicated terminal such as a dock connector.
  • the connector may be connected to any device including, for example, an external storage, a speaker, and a communication device.
  • the storage unit 9 stores various programs and data.
  • the storage unit 9 may include a nonvolatile storage device such as a flash memory.
  • the program stored in the storage unit 9 includes a control program 90.
  • the storage unit 9 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium.
  • the control program 90 may be stored in a storage medium.
  • the control program 90 may be acquired from a server device, a smartphone, a wristwatch type terminal, a laptop computer, a television, or the like by wireless communication or wired communication.
  • the control program 90 provides functions related to various controls for operating the wearable device 1.
  • the control program 90 includes a detection processing program 90a and a display control program 90b.
  • the detection processing program 90a provides a function for detecting a predetermined object existing in the foreground of the user from the detection result of the detection unit 5.
  • the detection processing program 90a provides a function of detecting the position of the predetermined object in the foreground of the user and the operation of the predetermined object from the detection result of the detection unit 5.
  • the display control program 90b provides a function of displaying an image so as to be visible to the user and changing the display mode of the image according to the operation of a predetermined object.
  • the detection unit 5 will be described as a sensor that detects an actual predetermined object using infrared rays.
  • the detection unit 5 will be described as including an infrared irradiation unit that emits infrared rays and an infrared imaging unit that can receive infrared rays reflected from an actual predetermined object (having infrared sensitivity). That is, the control unit 7 detects an actual predetermined object from the captured image of the infrared imaging unit. Further, in the present embodiment, the display image is displayed as if the display unit 2a and the display unit 2b exist at positions away from the wearable device 1.
  • FIG. 3A is a perspective view schematically showing the detection range 51 of the detection unit 5 and the display areas 21 of the display units 2a and 2b.
  • FIG. 3B is a top view of FIG. 3A.
  • FIG. 3C is a front view of FIG. 3A.
  • 3A to 3C define a three-dimensional orthogonal coordinate system including an X axis, a Y axis, and a Z axis.
  • the X-axis direction refers to the horizontal direction.
  • the Y-axis direction refers to the vertical direction or the long-axis direction of the user's body.
  • the Z-axis direction refers to the user's front-rear direction.
  • the Z-axis positive direction indicates the direction of a greater depth in the irradiation of the infrared irradiation unit included in the detection unit 5.
  • FIG. 3C corresponds to the field of view when the user visually recognizes the front.
  • the detection range 51 has a three-dimensional space.
  • the detection unit 5 including an infrared irradiation unit and an infrared imaging unit can detect a predetermined object in front of the user as a two-dimensional image and detect the shape of the predetermined object.
  • the detection unit 5 detects a predetermined object as a two-dimensional image and can acquire depth data corresponding to the position coordinate data of each pixel of the image (that is, a depth image to which depth data is added). Can get).
  • the depth data is data indicating a distance from the detection unit 5 to an actual object (predetermined object) corresponding to each pixel in the two-dimensional image.
  • the control unit 7 Based on the detection result of the detection unit 5, the control unit 7 operates the predetermined object when, for example, the predetermined object is a user's arm, hand, finger, or a combination of these (generally referred to as an upper limb). As described above, it is possible to detect body movements such as finger bending / extension, wrist bending, forearm rotation (inward or outward).
  • control unit 7 may detect that the position of the specific part of the upper limb moves within the detection range 51 as a body motion in addition to the above-described body motion. Further, the control unit 7 may detect that the upper limb has formed a specific shape as a body motion. For example, the control unit 7 may detect a form (good sign) or the like in which the other finger is held while the thumb is extended upward as the body motion.
  • the control unit 7 detects a predetermined object in the detection range (in the imaging range), as in the detection unit 5. It is possible to detect the operation of a predetermined object.
  • the display unit 2 a and the display unit 2 b are not a part of the actually provided wearable device 1 but a user in a display area 21 that is located away from the wearable device 1.
  • the image is displayed so that it can be visually recognized (hereinafter, the image displayed on the display unit 2a and the display unit 2b may be referred to as a display image).
  • the display units 2a and 2b may display the display image as a solid 3D object having a depth. Note that the depth corresponds to the thickness in the Z-axis direction.
  • the display unit 2a and the display unit 2b do not display an image so as to be visually recognized by the user in the display area 21 at a position away from the wearable device 1, but display the actual wearable device 1 provided. Images may be displayed on the portions 2a and 2b.
  • FIG. 4 is a diagram illustrating a first example of functions executed by wearable device 1.
  • FIG. 4 shows the display unit 2a or the display unit 2b (hereinafter also simply referred to as the display unit 2) of the wearable device 1, the display area 21 of the display unit 2, and the upper limbs of the user.
  • FIG. 4 shows an area that can be visually recognized by a user in two dimensions. The same applies to the examples of FIGS. 5 to 10 described later.
  • step S1 the wearable device 1 is executing a web browser application, inputs a search word desired by the user, and displays a search screen SC1 for performing a search based on the search word on the display unit 2.
  • the wearable device 1 is substantially the same as the shape of the upper limb detected by the control unit 7 based on the detection result of the detection unit 5 at a display position corresponding to the position of the user's upper limb in the detection range 51 of the detection unit 5.
  • a display object having a shape (hereinafter referred to as a hand object H) is displayed on the display unit 2.
  • the wearable device 1 stores a predetermined coordinate position of a predetermined space in the detection range 51 of the detection unit 5 and a coordinate position of the display area 21 in association with each other.
  • step S1 the wearable device 1 displays the image imitating the hand with the index finger extended as the hand object H based on the fact that the user extends the index finger in the upper limb in the real space. Is displayed.
  • step S1 when the user moves the upper limb in the real space, the wearable device 1 causes the fingertip portion of the index finger to move from the position indicated by the dotted line to the character input area SC11 on the search screen SC1.
  • the hand object H is moved to the overlapping position.
  • the wearable device 1 recognizes that a character input operation is started by the user.
  • the wearable device 1 recognizes that an operation for inputting characters by the user is started when the hand object H moves to a position where it overlaps the character input area SC11.
  • step S2 the wearable device 1 superimposes a character key SC2 on which a character can be input in accordance with a change in the position and shape of the hand object H based on the physical motion of the upper limb on a part of the search screen SC1.
  • step S2 wearable device 1 displays the character string “carrot recipes” that was input when the previous web browser application was activated in character input area SC11 on search screen SC1.
  • step S ⁇ b> 3 when the wearable device 1 detects a state in which the index finger and thumb are extended in the upper limb, the wearable device 1 considers that the input character string “carrot recipes” has been selected by the user.
  • step S ⁇ b> 4 when the wearable device 1 detects the movement of the index finger and thumb in the upper limbs close to each other, the wearable device 1 deletes the character string “carrot recipes” that is considered to be selected by the user.
  • the “operation for bringing the index finger and thumb close to each other” refers to an operation for bringing a predetermined region (for example, fingertip) of the index finger close to a predetermined region (for example, fingertip) of the thumb.
  • the “fingertip” may be, for example, a portion from the first indirect of the finger to the tip of the finger.
  • the wearable device 1 includes a display unit 2 that displays characters, a detection unit 5 that detects a predetermined object in an actual space, and a detection result of the detection unit 5, so And a control unit 7 that executes a character selection process for selecting a character when a first body movement approaching a part (an index finger in the first example) and another part (a thumb in the first example) approach each other.
  • a display unit 2 that displays characters
  • a detection unit 5 that detects a predetermined object in an actual space
  • a detection result of the detection unit 5 so
  • a control unit 7 that executes a character selection process for selecting a character when a first body movement approaching a part (an index finger in the first example) and another part (a thumb in the first example) approach each other.
  • the control unit 7 when the control unit 7 detects an operation of bringing the fingertip of the index finger and the fingertip of the thumb close to each other (first body operation), the fingertip of the index finger that changes based on the operation is detected. And the distance between the thumb and the tip of the thumb.
  • the control unit 7 may execute the character selection process when the detected distance is equal to or less than a predetermined length.
  • the “distance between the fingertip of the index finger and the fingertip of the thumb” may mean a distance in the real space between the fingertip of the index finger and the fingertip of the thumb in the upper extremity that actually exists. It may mean the distance between the fingertip of the index finger and the fingertip of the thumb.
  • predetermined length means that, for example, when the “distance between the fingertip of the index finger and the fingertip of the thumb” means the distance between the fingertip of the index finger and the fingertip of the thumb in the hand object H, for example, It may be half the length of the column. In the example illustrated in FIG. 4, when the wearable device 1 detects the first body motion, the distance between the index fingertip and the thumb fingertip in the hand object H is a portion where the character string “carrot recipes” is displayed. When the length becomes less than half the length d (1 / 2d), it is considered that the character string is selected by the user. Further, the “predetermined length” may be a length that can be regarded as the fingertip of the index finger and the fingertip of the thumb touching each other, that is, zero.
  • the control unit 7 detects the first body motion, and a part (forefinger in the first example) or another part (in the first example) of the first body motion.
  • the character selection process may be executed.
  • the wearable device 1 can facilitate character selection by a physical action intended by the user.
  • FIG. 5 is a diagram for explaining a second example of functions executed by the wearable device 1. As in the first example, the second example shows a case where a web browser application is activated.
  • step S11 the wearable device 1 displays the search screen SC1 and the character key SC2 on the display unit 2.
  • the wearable device 1 displays the character string “carrot recipes” that was input when the web browser application was last activated in the character input area SC11 on the search screen SC1.
  • the wearable device 1 is substantially the same as the shape of the upper limb detected by the control unit 7 on the display position corresponding to the position of the user's upper limb in the detection range 51 of the detection unit 5 based on the detection result.
  • a hand object H having a shape is displayed on the display unit 2.
  • step S11 the user moves the upper limb to position the fingertip of the thumb of the hand object H at the beginning of the character string “recipes”, while positioning the fingertip of the index finger at the tail of “recipes”. .
  • the fingertip of the thumb of the hand object H and the fingertip of the index finger are separated from each other by the length d2 of the display area of “recipes”.
  • the user performs an operation (first body operation) in which the user brings the fingertip of the index finger and the fingertip of the thumb close to each other from the state shown in step S11.
  • step S ⁇ b> 12 when the wearable device 1 detects the first body motion, the wearable device 1 considers that the portion of “recipes” in the character string “carrot recipes” has been selected by the user.
  • the wearable device 1 displays a hand object H having a shape substantially the same as the shape of the upper limb that performs the first body movement on the display unit 2.
  • step S ⁇ b> 13 wearable device 1 deletes character string “recipes” regarded as selected by the user from character input area SC ⁇ b> 11.
  • the display unit 2 displays a character string including a plurality of characters, and when the control unit 7 detects the first body motion, For the number of characters ("recipes" in the second example) defined by the position of a part (thumb fingertip) of the hand object H and the position of the other part (index fingertip) immediately before the body motion is detected To execute the character selection process.
  • “the number of characters defined by the position of a part of the hand object H and the position of the other part” is superimposed on a part of the hand object H (the fingertip of the thumb) as in the second example.
  • a character string (character string including “r” and “s”, that is, “recipes”) included between the character “r” and the other part of the hand object H (the tip of the index finger) and the superimposed character “s”. It's okay. Further, “the number of characters defined by the position of a part of the hand object H and the position of the other part” is displayed at the X coordinate position substantially the same as the X coordinate position of a part of the hand object H.
  • a character (the Y-axis coordinate position does not have to be the same) and a character displayed at an X-coordinate position substantially the same as the X-coordinate position of the other part of the hand object H (the Y-axis coordinate position may not be the same) It is also possible to use a character string included between Further, “the number of characters defined by the position of a part of the hand object H and the position of the other part” means an X-axis direction component of the distance between a part of the upper limb and the position of the other part (that is, It may be a character string having the same length as the component in the input direction of the character string.
  • the length of the display area of the word in the X-axis direction is a part of the upper limb and the other part.
  • the one closer to the X-axis direction component of the distance between the position and the position may be regarded as “the number of characters defined by the position of a part of the hand object H and the position of the other part”.
  • the wearable device 1 when the wearable device 1 detects the first body motion and detects that the moving speed of a part or other part of the upper limb in the first body motion is equal to or higher than the first speed, the character selection is performed. He explained that the process may be executed. On the other hand, the wearable device 1 does not execute the character selection process by an operation of a part of the upper limb or the other part at a speed lower than the first speed. For this reason, the user can designate a character string or the number of characters desired by the user by appropriately moving a part or other part of the upper limb below the first speed (after designating the character string). If the first body motion at the first speed or higher is performed, the character selection process is executed for the designated character string).
  • the wearable device 1 uses the character string desired by the user based on the position. Alternatively, it may be considered that the number of characters is designated.
  • the wearable device 1 when the wearable device 1 detects the first physical movement of the user, the wearable device 1 executes a character erasing process that erases the character selected by the character selection process by the control unit 7.
  • a character erasing process that erases the character selected by the character selection process by the control unit 7.
  • the control unit 7 is input before the display when the display unit 2 displays the character input area SC11 (referred to as a character input screen) on the search screen SC1.
  • a character character string “carrot recipes”
  • the control unit 7 may have a configuration for executing a character erasing process on the input character “carrot recipes” when the first body motion is detected.
  • the wearable device 1 may display the character string input at the previous activation again when the predetermined application is activated.
  • the wearable device 1 can erase the displayed characters all at once by a simple operation such as the first body motion, so that it is convenient for the user.
  • the wearable device 1 may re-input the erased character when detecting the second physical motion in which a part of the upper limb is separated from the other portion as the physical motion after the character erasing process is executed.
  • Wearable device 1 may re-enter the erased character when the second physical motion is detected within a predetermined time after the character erasing process is executed.
  • FIG. 6 is a diagram for explaining a third example of functions executed by the wearable device 1.
  • the third example shows a case where a mail application is activated by the wearable device 1.
  • step S21 the wearable device 1 displays a mail screen SC3 indicating the exchange of mail with other communication terminals on the display unit 2. Further, the wearable device 1 has the shape of the upper right limb detected by the control unit 7 based on the detection result by the detection unit 5 at a display position corresponding to the position of the user's upper right limb in the detection range 51 of the detection unit 5. A right hand object RH having substantially the same shape is displayed on the display unit 2. The right hand object RH is displayed superimposed on a part of the message SC31 in the mail screen SC3.
  • the wearable device 1 executes a character selection process. To do.
  • the wearable device 1 determines the distance d3 based on the position of the index finger and the tip of the thumb of the right hand object RH immediately before the first body movement is performed, or the distance between the index finger and the tip of the thumb.
  • the character selection process is executed for a part of the character string “19 o'clock in front of OO station” in the message SC31 based on the fact that the character is separated from the message SC31.
  • the wearable device 1 then executes a character selection process and a copy process for copying the character string “19:00 at the station”, that is, a process for temporarily storing the character string “19:00 at the station”. To do.
  • the wearable device 1 changes the display mode of the character string “19:00 in front of OO station” in order to make it easy to visually recognize that the copy process for the character string “19:00 in front of OO station” has been performed.
  • step S22 after executing the replication process, the user moves the left upper limb within the detection range 51 of the detection unit 5 of the wearable device 1.
  • step S ⁇ b> 23 the wearable device 1 displays the left hand object LH having substantially the same shape as the left upper limb on the display unit 2 based on the detection result of the detection unit 5.
  • step S23 for example, the user moves the left upper limb to the left in the real space.
  • step S24 wearable device 1 moves the display position of left hand object LH to the left in display area 21 and changes the display from mail screen SC3 to a different screen based on the movement of the left upper limb.
  • the screen after the transition is, for example, a memo screen SC4 on which characters can be input by a user operation.
  • step S24 the user moves the right hand object RH on the memo screen SC4 by moving the upper right limb in the real space, and separates the index finger and the thumb of the right hand object RH from each other (performs the second body motion). ).
  • step S25 when the wearable device 1 detects the second physical operation, the wearable device 1 inputs (pastes) the character string “19:00 in front of OO station” temporarily stored in the memo screen SC4.
  • the control unit 7 when the control unit 7 detects the first body motion, the character selected by the character selection operation (in the third example, the character string “ ”) Is copied.
  • the control unit 7 causes the part of the hand object H (thumb fingertip) and the other part (index fingertip) to move away from each other as physical movements after the execution of the replication process.
  • a pasting process for pasting the character copied by the character selection operation on the display unit 2 is executed.
  • the wearable device 1 may execute the pasting process and then cancel the state where the duplication process is executed, that is, change the state so as not to store the temporarily stored character string. Further, the wearable device 1 may maintain the state in which the duplication process is performed even after executing the pasting process, that is, continuously store the character string selected by the character selection process.
  • the wearable apparatus 1 can perform a sticking process as many times as the said repetition times because a user repeats a 1st body motion.
  • the wearable device 1 maintains the state in which the duplication process is performed even after the pasting process is performed, and temporarily stores the character selection process for other character strings based on the user's operation.
  • the character string to be replaced may be replaced with another character string.
  • the wearable device 1 executes the character selection process and the duplication process based on the first body motion, it is determined whether or not the state in which a part of the upper limb after the first body motion and the other part are approached is maintained. You may judge. For example, when the state is maintained, the wearable device 1 continues the character selection process and the replication process, while the state is released, that is, a part of the upper limb is separated from the other part. In such a case, the character selection process and the duplication process may be canceled.
  • Wearable device 1 performs character selection processing and duplication processing for the 1st character string based on the 1st body movement by the upper right limb, while it applies to the 2nd character string based on the 1st body movement by the left upper limb.
  • Character selection processing and duplication processing may be executed.
  • the wearable device 1 determines whether the second body motion depends on the left upper limb or the upper right limb when executing the pasting process of the selected character string based on the second body motion. You may do it.
  • the wearable device 1 executes the process of pasting the first character string when the second body motion depends on the left upper limb, while the second body motion when the second body motion depends on the upper right limb. You may make it perform the process which pastes a character string.
  • Wearable device 1 performs character selection processing and duplication processing to the 1st character string based on the 1st body movement in which the thumb and index finger of the upper limb approach each other, while the thumb and middle finger of the upper limb approach each other You may make it perform the character selection process and duplication process with respect to a 2nd character string based on 1st body movement.
  • the wearable device 1 performs the pasting process of the selected character string based on the second body motion
  • the second body motion is a motion in which the thumb and the index finger are separated, or the thumb and the middle finger are It is determined whether the operation is to leave.
  • the wearable device 1 executes the process of pasting the first character string when the thumb and the index finger are separated from each other, while the second character string is performed when the thumb and the middle finger are separated from each other. You may make it perform the process which pastes. According to such a configuration, the wearable device 1 can execute different duplication processes by the number corresponding to the type of combination of a part of the upper limb and the other part in the first body motion. Improved operability.
  • FIG. 7 is a diagram illustrating a fourth example of functions executed by the wearable device 1.
  • the wearable device 1 starts a mail application.
  • step S31 wearable device 1 displays mail screen SC3 and right-hand object RH on display unit 2. Further, the right hand object RH is displayed superimposed on some messages SC32 in the mail screen SC3.
  • step S32 wearable device 1 sets the position of the fingertip of the index finger and the tip of the thumb of right hand object RH immediately before the first physical movement is performed, in message SC32 including a character string composed of a plurality of lines.
  • the character selection process is executed for the character string having the number of lines based on it.
  • the wearable device 1 has a character string “http: // ...” of two lines based on the fingertip of the index finger and the fingertip of the thumb being separated by a distance d4.
  • the character selection process is executed for.
  • the wearable device 1 executes the character selection process and also copies the character string “http: // ...”, that is, temporarily stores the character string “http: // ...”. Execute the process.
  • the wearable device 1 uses the character string “http: // ...” in order to make it easy to visually recognize that the copy process for the character string “http: // ...” has been performed. "Is changed.
  • step S33 the wearable device 1 executes a copy process, and then, based on the fact that the user has performed a predetermined operation as shown in step S23 in FIG. 6, a different screen (memo screen SC4) from the mail screen SC3. Transition the display to).
  • step S ⁇ b> 33 the user moves the right hand object RH on the memo screen SC ⁇ b> 4 by moving the upper right limb in the real space, and separates the index finger and the thumb of the right hand object RH from each other (performs the second body motion). ).
  • step S34 the wearable device 1 inputs (pastes) the character string “http: // ...” temporarily stored by the duplication processing into the memo screen SC4.
  • the display unit 2 displays a character string composed of a plurality of lines
  • Character selection for a character string of the number of lines defined by the position of a part of the upper limb and the position of the other part immediately before the first body movement is detected (character string of two lines in the example of FIG. 7) Execute the process.
  • the “character string of the number of lines defined by the position of a part of the upper limb and the position of the other part” is superimposed on a part of the hand object H (the fingertip of the thumb) as in the example of FIG.
  • the character string may constitute a line to be overlapped, a line overlapping with the other part of the hand object H (the fingertip of the index finger), and a line included between the two lines.
  • the “character string having the number of lines defined by the position of a part of the upper limb and the position of the other part” is displayed at a Y coordinate position substantially the same as a part of the Y coordinate position of the hand object H.
  • a row (the X-axis coordinate position may not be the same) and a row displayed at a Y-coordinate position substantially the same as the Y-coordinate position of the other part of the hand object H (the X-axis coordinate position may not be the same)
  • other character lines included between both lines may be used.
  • a character string having the number of lines defined by the position of a part of the upper limb and the position of the other part refers to the Y-axis direction component of the distance between the part of the upper limb and the position of the other part (that is, It is also possible to use a character string with the number of lines having the same length as the component in the direction perpendicular to the input direction of the character string.
  • the wearable device 1 includes one phrase (or one meaning content) continuously with the character string of the defined line.
  • the upper row or the lower row that includes other character strings that constitute () may be included in the character selection process.
  • the wearable device 1 is configured such that the entire paragraph including the line defined by the position of a part of the upper limb and the position of the other part is It may be a target of character selection processing.
  • the wearable device 1 when the message SC32 (target character string) includes a plurality of paragraphs, the wearable device 1 superimposes the first paragraph including a line to be superimposed on the position of a part of the upper limb and the position of the other part of the upper limb.
  • Both of the second paragraphs including the line to be processed are subject to character selection processing. May be.
  • the control unit 7 when the control unit 7 detects the first body movement, the direction in which a part of the upper limb and the other part approach each other, the input direction in which characters are sequentially input (X-axis direction), Is calculated.
  • the controller 7 may execute the character selection process when the angle ⁇ 1 is equal to or smaller than the first angle.
  • the angle ⁇ 1 is suitably set within a range of 0 to 45 degrees, for example.
  • the control unit 7 calculates an angle ⁇ 2 at which the direction in which a part of the upper limb approaches another part and the direction perpendicular to the character input direction (Y-axis direction).
  • the controller 7 may execute the character selection process when the angle ⁇ 2 is equal to or smaller than the second angle.
  • the angle ⁇ 2 may be appropriately set within a range of 0 to 45 degrees, for example.
  • FIG. 9 is a diagram for explaining a fifth example of functions executed by the wearable device 1.
  • the fifth example shows a case where the mail application is activated.
  • the wearable device 1 displays the mail screen SC3 and the right hand object RH on the display unit 2. Further, the right hand object RH is displayed superimposed on some messages SC32 in the mail screen SC3.
  • the wearable device 1 executes a character selection process. To do.
  • the wearable device 1 has a substantially vertical direction (Y-axis direction) in which the index fingertip and the thumbtip tip approach each other in the first body motion, and the right hand object RH after the first body motion Based on the fact that the fingertip of the index finger is positioned at the upper end of the message SC321 and the fingertip of the thumb is positioned at the lower end of the message SC321, the message SC321 is set as a character selection target.
  • Wearable device 1 changes the display mode of message SC321 when it is considered that message SC321 has been selected by the user.
  • the example shown in FIG. 9 is different from the above in that the character string to be subjected to the character selection process is determined based on the position of a part of the upper limb after the first body movement and the position of the other part. Different from form.
  • step S42 the user moves the upper limb in the real space while the right hand object RH is holding the message SC321, that is, the distance between the index finger and the thumb is maintained substantially the same. Yes.
  • the wearable device 1 moves the right hand object RH in the right direction in the display area 21 of the display unit 2 in step S43.
  • wearable device 1 performs a duplication process for copying characters constituting message SC321 selected in the character selection process, and moves the display position of message SC321 to the right.
  • step S43 the user moves the left upper limb within the detection range 51 of the detection unit 5 of the wearable device 1.
  • step S ⁇ b> 43 the wearable device 1 displays the left hand object LH having substantially the same shape as the left upper limb on the display unit 2 based on the detection result of the detection unit 5. For example, when the user moves the left upper limb in the left direction in the real space, the wearable device 1 detects the body motion of the left upper limb from the detection result of the detection unit 5 and displays the display position of the left hand object LH. Move leftward in region 21.
  • step S43 when the wearable device 1 detects the physical movement of the left upper limb, the wearable device 1 considers that the operation has been performed by the user, and changes the display from the mail screen SC3 to a different screen, for example.
  • the screen after the transition is, for example, a search screen SC5 as shown in step S44.
  • the wearable device 1 maintains the display of the message SC321 picked by the right hand object RH when the display is changed from the mail screen SC3 to the search screen SC5, that is, a state where characters in the message SC321 are copied. maintain.
  • step S44 when the user moves the upper right limb in the real space, the wearable device 1 moves the display position of the right hand object RH so that the message SC321 is superimposed on the character input area SC51 on the search screen SC5.
  • step S45 wearable device 1 executes a pasting process for inputting, that is, pasting, a character in message SC321 copied to character input area SC51.
  • Wearable device 1 is limited to pasting characters in message SC321 in character input region SC51 based on moving the display position of right hand object RH so that message SC321 is superimposed on character input region SC51. do not do.
  • the wearable device 1 moves the display position of the right hand object RH so that the message SC321 is superimposed on the character input area SC51, and the fingertip of the index finger and the thumb of the right hand object RH are separated after the movement. Based on this, the characters in the message SC321 may be pasted in the character input area SC51.
  • the user moves the upper right limb in an actual space and separates the fingertip of the index finger and the fingertip of the thumb in order to paste the characters constituting the message SC321 in the character input area SC51 (second operation). Body movement).
  • the character string to be subjected to the character selection process is determined based on the position of a part of the upper limb after the first body movement and the position of the other part, not before the first body movement.
  • the operation for performing the character selection process for the message SC321 does not necessarily need to be the first body movement in which a part of the upper limb approaches the other part.
  • the wearable device 1 may simply execute the character selection process for the message SC321 based on the fact that a part of the upper limb is located at the upper end of the message SC321 and the other part is located at the lower end of the message SC321.
  • wearable device 1 executes character selection processing for message SC321 based on a state in which a part of the upper limb is located at the upper end of message SC321 and the other part is located at the lower end of message SC321 for a predetermined time or longer. May be.
  • the wearable device 1 includes a display unit 2 that displays a character string composed of a plurality of characters, and a detection unit 5 that detects an upper limb of a user in a real space.
  • the first character string (message SC321 in the example of FIG. 9) included in the range defined by the position of the part of the upper limb detected by the detection unit 5 and the position of the other part of the character string is selected.
  • a wearable device 1 that can be worn on the head, and includes a control unit 7 that executes character selection processing. Based on the detection of a predetermined physical movement of the upper limb (movement of moving the upper limb in the right direction in the example of FIG.
  • Predetermined processing in the example of FIG. 9, the character string in the message SC321 Executing the copy replication processing for.
  • the predetermined body motion is substantially orthogonal to the direction in which the part and the other part approach each other in the action of bringing the part of the upper limb close to the other part to execute the character selection process (or the predetermined range). It may be an operation of moving the upper limbs in a direction that intersects at an inner angle. If it is the said operation
  • FIG. 10 is a diagram for explaining a sixth example of functions executed by the wearable device 1.
  • the wearable device 1 displays an input form SC6 on the display unit 2 for allowing the user to input predetermined information.
  • the wearable device 1 has a hand object that has substantially the same shape as the shape of the upper limb detected by the detection unit 5 on the display position corresponding to the position of the upper limb of the user in the detection range 51 of the detection unit 5. H is displayed on the display unit 2.
  • step S51 the full-width numeric character string “080-” (character string T1) is input to the telephone number input area in the input form SC6.
  • step S52 the user moves the upper limb in the real space to position the tip of the thumb of the right hand object RH at the beginning of the character string T1 “080-”, and the right hand at the tail of the character string T1 “080-”.
  • the fingertip of the index finger of the object RH is positioned.
  • the user performs an action (first body action) of bringing the fingertip of the index finger and the fingertip of the thumb of the right hand object RH closer to each other.
  • step S52 when the wearable device 1 detects the approaching action, the wearable device 1 considers that the character string T1 “080-” has been selected by the user. That is, the wearable device 1 executes a character selection process for selecting the character string T1.
  • step S52 the wearable device 1 executes a character selection process for selecting the character string T1, and changes the character type of the selected character string T1.
  • the wearable device 1 changes the character type from a character string T1 that is a full-width numeral to a character string T2 that is a half-width numeral as shown in step S53.
  • the control unit 7 when detecting the first body movement, selects the character string T1 and executes the character type changing process for changing the character type of the character.
  • FIG. 11A to FIG. 11D are diagrams showing other examples of changing the character type.
  • the wearable device 1 when the wearable device 1 detects the first body motion in which a part of the upper limb approaches the other part, the character is converted from full-width to half-width, An example of changing the size is shown.
  • the wearable device 1 detects the first body motion in which a part of the upper limb approaches the other part, the size of the character is reduced, while the part of the upper limb and the other part are separated from each other.
  • the character size may be increased.
  • the control unit 7 changes the character type of the character when detecting a body motion accompanied by a change in the distance between a part of the upper limb and the other part from the detection result of the detection unit 5. It may be characterized that the character type changing process is executed. By having such a configuration, the wearable device 1 can change the character type of the input character by a simpler operation such as a picking operation, which improves usability for the user.
  • the character type changing process is an operation of changing from one of the two predetermined character types to the other, and the first body with a small distance between the part and the other part.
  • the movement is detected, the movement is changed from one to the other.
  • the second body movement in which the distance between a part and the other part is increased, the movement is changed from the other to the other.
  • the two character types are character types having a magnitude relationship with each other.
  • the wearable device 1 uses the full-width character in the character string based on the first body movement when the character string subject to the character type change process includes both a full-width character and a half-width character. Is changed to half-width notation (original half-width characters do not change the character type), and based on the second body movement, half-width notation characters are changed to full-width notation (originally full-width characters do not change the character type) ).
  • the wearable device 1 when the wearable device 1 detects the first body motion in which a part of the upper limb approaches another part, the character string “carrot” written in kana characters is converted to the character string “carrot”. An example of conversion to "" is shown.
  • the wearable device 1 detects the first body movement in which a part of the upper limb approaches the other part, the kana character is changed to the kanji character, while the upper limb part and the other part are changed.
  • the notation in kanji may be converted to the notation in kana characters.
  • the number of characters is smaller when a character string (word) written in kana characters and a kanji corresponding to the character string are written in kanji. Therefore, as the number of characters in the character string increases or decreases according to the increase or decrease in the distance between a part of the upper limb and the other part due to the first body movement or the second body movement, a more natural operation feeling is given to the user. Can do. That is, when the wearable device 1 detects the first body motion, the wearable device 1 changes the relatively large one of the two character types (notation in kana characters) to the relatively small other (notation in kanji). When the second body movement is detected, the movement may be performed to change the relatively small one of the two types of characters to the relatively large other.
  • the wearable device 1 uses the first body motion to indicate the kana character in the character string in the kanji character when the character string subject to the character type change process includes both the kana character and the character in the kanji character.
  • Kanji characters do not change the character type
  • Kanji characters in the character string are changed to Kana notation (Original Kana characters do not change the character type)
  • the wearable device 1 has a part of the upper limb at the upper part of “C” and the other part at the lower part of “C” with respect to the character string “Carrot” in which the first letter is capitalized.
  • the wearable device 1 is a state in which a part of the upper limb is positioned above the “c” and the other part is positioned below the “c” with respect to the character string “carrot” in which all characters are written in lower case.
  • “c” expressed in lower case may be changed to “C” in upper case. That is, when the wearable device 1 detects the first body motion, the wearable device 1 changes the relatively large one (upper case) of the two character types to the other smaller (lower case) and detects the second body motion. You may make it perform the operation
  • the control unit 7 when detecting the first body motion, the control unit 7 selects a character and Half-width conversion, Kana / Kanji conversion, translation into another language, or uppercase / lowercase conversion is executed as the character type changing process.
  • the wearable device 1 when the wearable device 1 detects the first physical movement of the user, an example is shown in which a character erasing process for erasing a character selected by the character selection process is executed.
  • a character input area SC11 when the character input area SC11 is displayed when the control unit 7 displays the character input area SC11 on the search screen SC1 by the display unit 2, It may have a configuration for monitoring the presence or absence of detection of the first physical motion and executing character erasure processing on characters input before display when the first physical motion is detected. Said.
  • the wearable device 1 is arranged in front of the user's eyes, and displays the display unit 2 that displays characters, the detection unit 5 that detects the user's upper limb in the real space, and the detection of the detection unit 5 From the result, the control unit 7 that detects the physical movement of the upper limb, and when the character string input before the display is displayed when the display unit 2 displays the character input screen, It may be characterized that it is determined whether or not a predetermined body motion is detected among the body motions, and if it is determined that the predetermined body motion is detected, the display of the character string is deleted.
  • the “predetermined body motion” is not limited to the first body motion in which a part of the upper limb and the other part approach each other as described above, for example, a grip that makes the hand transition from an open state to a closed state.
  • An action or an action of moving the fingertips of the upper limbs in a predetermined direction for example, a direction in which character strings are arranged
  • a reciprocating action of moving the fingertips of the upper limbs in a predetermined direction and returning to the direction opposite to the predetermined direction It may be an action that repeats a predetermined number of times within a predetermined time (a body action that simulates an action of erasing characters with an eraser).
  • the control unit 7 displays a predetermined time after the character string is displayed. It may be determined whether a predetermined physical motion is detected before the passage of time, and if it is determined that the predetermined physical motion is detected before the predetermined time has elapsed, the display of the character string may be deleted. In the wearable device 1, when the character string input before the display is displayed when the display unit 2 displays the character input screen, the control unit 7 displays a predetermined time after the character string is displayed.
  • the character string can be erased.
  • the character string is designated on the condition that the hand object H is in a predetermined position. In the state, the character string may not be erased unless the first body movement (an action to bring a part of the upper limb and the other part close to each other) is performed.
  • the wearable device 1 by displaying the hand object H based on the position of the upper limb and the shape of the upper limb in the real space in the display area 21 and changing the display mode (display position or shape) of the hand object H,
  • the configuration for causing the wearable device 1 to execute the various operations exemplified above is illustrated.
  • the configuration in which the display image is selected based on the fingertip of the index finger of the hand object H being superimposed on the display image (search screen SC11) is illustrated.
  • search screen SC11 search screen SC11
  • the wearable device 1 selects the display image when it is estimated that the fingertip of the index finger of the upper limb in the real space is in a position when the fingertip is superimposed on the display image in the display area 21 and viewed by the user. It is good also as a structure considered as having been made.
  • the wearable device 1 preliminarily estimates the range of the actual space that is visually recognized by the user while being superimposed on the display region 21, and accordingly, the display region according to the fingertip of the index finger and the detection position within the range. It is possible to estimate which of 21 positions is superimposed and visually recognized.
  • the wearable device 1 has been shown to have an eyeglass shape, but the shape of the wearable device 1 is not limited to this.
  • the wearable device 1 may have a helmet-type shape that covers substantially the upper half of the user's head.
  • the wearable device 1 may have a mask type shape that covers almost the entire face of the user.
  • the wearable apparatus 1 has illustrated the structure in which the display part 2 has a pair of display part 2a provided in front of a user's right and left eyes, and the display part 2b, It is not limited to.
  • the display unit 2 may include a single display unit provided in front of one of the left and right eyes of the user.
  • the wearable device 1 has exemplified the configuration in which the edge of the front portion surrounds the entire periphery of the edge of the display area of the display unit 2, but is not limited thereto.
  • the wearable device 1 may be configured to surround only a part of the edge of the display area of the display unit 2.
  • the wearable apparatus 1 showed the structure which detects a hand and a finger as an upper limb of a user by an imaging part (or detection part), a glove, a glove, etc. are mounted
  • the control method includes a display unit that displays characters, a detection unit that detects an upper limb of a user in a real space, and a body motion of the upper limb from a detection result of the detection unit.
  • the program detects a body motion of the upper limb from a display unit that displays characters, a detection unit that detects an upper limb of a user in a real space, and a detection result of the detection unit.
  • a wearable device that can be worn on the head, comprising: a control unit; detecting a first body motion approaching the control unit as a part of the upper limb and the other part as the body motion; When one body motion is detected, a step of executing a character selection process for selecting the character may be characterized as a control program.

Abstract

本実施形態の一例に係るウェアラブル装置は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える。制御部は、検出部の検出結果から、上肢における一部と他部とが互いに近づく第1身体動作を検出すると、文字を選択する文字選択処理を実行する。ウェアラブル装置は、頭部に装着可能なものである。

Description

ウェアラブル装置、制御方法及び制御プログラム
 本出願は、利用者の頭部に装着可能なウェアラブル装置、制御方法及び制御プログラムに関する。
 上記のウェアラブル装置として、近年、眼前に配置されるディスプレイと、手指の動きを認識可能な赤外線検知ユニットと、を備え、手のジェスチャによって操作が行われるヘッドマウントディスプレイ装置が開示されている(特許文献1参照)。
国際公開第2014/128751号
 上記のようなウェアラブル装置においては、より使い勝手の良いものが望まれる。
 本出願の目的は、より使い勝手の良いウェアラブル装置、制御方法及び制御プログラムを提供することにある。
 態様の一つに係るウェアラブル装置は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する制御部と、を備える、頭部に装着可能なものである。
 また、態様の一つに係るウェアラブル装置は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢における一部と他部との距離の変化を伴う身体動作を検出すると、前記文字の文字種を変更する文字種変更処理を実行する制御部と、を備える、頭部に装着可能なものである。
 また、態様の一つに係るウェアラブル装置は、利用者の眼前に配置され、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、利用者の頭部に装着可能なウェアラブル装置であって、前記制御部は、前記表示部による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、前記身体動作の内、所定の身体動作が検出されるかを判定し、当該所定の身体動作の検出が有ると判定すると、前記文字列の表示を消去する。
 また、態様の一つに係るウェアラブル装置は、複数の文字からなる文字列を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記文字列の内、前記検出部によって検出される前記上肢の一部の位置と他部の位置とによって規定される範囲に含まれる第1文字列を選択する文字選択処理を実行する制御部と、を備える頭部に装着可能なウェアラブル装置であって、前記制御部は、文字選択処理の実行中に、前記一部と前記他部との間の離間距離が略同一に維持された状態で、前記上肢の所定の身体動作を検出したことに基づいて、前記第1文字列に対して所定の処理を実行する。
 態様の一つに係る制御方法は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置によって実行される制御方法であって、前記制御部は、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する。
 態様の一つに係る制御プログラムは、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置において、前記制御部が前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、当該制御部に、前記文字を選択する文字選択処理を実行させる。
ウェアラブル装置の斜視図である。 ウェアラブル装置のブロック図である。 検出部の検出範囲と、表示部の表示領域との関係について説明する図である。 検出部の検出範囲と、表示部の表示領域との関係について説明する図である。 検出部の検出範囲と、表示部の表示領域との関係について説明する図である。 ウェアラブル装置により実行される機能の第1例を説明する図である。 ウェアラブル装置により実行される機能の第2例を説明する図である。 ウェアラブル装置により実行される機能の第3例を説明する図である。 ウェアラブル装置により実行される機能の第4例を説明する図である。 文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する図である。 文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する図である。 ウェアラブル装置により実行される機能の第5例を説明する図である。 ウェアラブル装置により実行される機能の第6例を説明する図である。 文字種の変更の他の例を示す図である。 文字種の変更の他の例を示す図である。 文字種の変更の他の例を示す図である。 文字種の変更の他の例を示す図である。
 本出願に係るウェアラブル装置1を実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。
 まず、図1を参照しながら、ウェアラブル装置1の全体的な構成について説明する。図1は、ウェアラブル装置1の斜視図である。図1に示すように、ウェアラブル装置1は、利用者の頭部に装着されるヘッドマウントタイプ(或いはメガネ型)の装置である。
 ウェアラブル装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続される。側面部1cは、前面部1aの他方の端部に接続される。側面部1b及び側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、ウェアラブル装置1を安定させる。側面部1b及び側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されても良い。
 前面部1aは、装着時に利用者の目と対向する面に表示部2a及び表示部2bを備える。表示部2aは、装着時に利用者の右目と対向する位置に配設される。表示部2bは、装着時に利用者の左目と対向する位置に配設される。表示部2aは、右目用の画像を表示し、表示部2bは、左目用の画像を表示する。なお、装着時に利用者のそれぞれの目に対応した画像を表示する表示部2a及び表示部2bを備えることにより、ウェアラブル装置1は、両眼の視差を利用した3次元表示を実現することができる。
 表示部2a及び表示部2bは、一対の透過又は半透過のディスプレイであるが、これに限定されない。例えば、表示部2a及び表示部2bは、メガネレンズ、サングラスレンズ、及び紫外線カットレンズ等のレンズ類を設け、レンズとは別に表示部2a及び表示部2bを設けても良い。表示部2a及び表示部2bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されても良い。
 前面部1aには、撮像部3(アウトカメラ)が備えられている。撮像部3は、前面部1aの中央部分に配置されている。撮像部3は、利用者の前方の風景における所定範囲の画像を取得する。また、撮像部3は、利用者の視界に相当する範囲の画像を取得することも可能である。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。なお、撮像部3は、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部と、前面部1aの他方の端部(装着時の左目側)の近傍に配設される撮像部との2つから構成されていても良い。この場合、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部は、利用者の右目の視界に相当する範囲の画像を取得できる。前面部1aの一方の端部(装着時の左目側)の近傍に配設される撮像部は、利用者の左目の視界に相当する範囲の画像を取得できる。
 また、前面部1aには、撮像部4(インカメラ)が備えられている。撮像部4は、ウェアラブル装置1が利用者の頭部に装着されたときに、前面部1aにおける、利用者の顔面側に配置されている。撮像部4は、利用者の顔面、例えば目の画像を取得できる。
 また、前面部1aには、検出部5が備えられる。検出部5は、前面部1aの中央部分に配置されている。また、側面部1cには、操作部6が備えられる。検出部5、操作部6については後述する。
 ウェアラブル装置1は、利用者に各種情報を視認させる機能を有する。ウェアラブル装置1は、表示部2a及び表示部2bが表示を行っていない場合、表示部2a及び表示部2bを透して前景を利用者に視認させる。ウェアラブル装置1は、表示部2a及び表示部2bが表示を行っている場合、表示部2a及び表示部2bを透した前景と、表示部2a及び表示部2bの表示内容とを利用者に視認させる。
 次に、図2を参照しながら、ウェアラブル装置1の機能的な構成について説明する。図2は、ウェアラブル装置1のブロック図である。図2に示すように、ウェアラブル装置1は、表示部2a及び表示部2bと、撮像部3(アウトカメラ)及び撮像部4(インカメラ)と良い、検出部5と、操作部6と、制御部7と、通信部8と、記憶部9とを有する。
 表示部2a及び2bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro-Luminessence)パネル等の半透過または透過の表示デバイスを備える。表示部2a及び表示部2bは、制御部7から入力される制御信号に従って各種の情報を画像として表示する。表示部2a及び表示部2bは、制御部7の制御に基づき、所定の文字を表示する。表示部2a及び表示部2bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であっても良い。この場合、表示部2a及び表示部2bは、眼鏡を模したウェアラブル装置1のレンズ部分にハーフミラーを設置して、別途設けられるプロジェクタから照射される画像が投影される構成であっても良い(図1に示す例において、表示部2a及び表示部2bは、矩形状のハーフミラーを示している)。また、前述したように、表示部2a及び表示部2bは、各種の情報を3次元的に表示しても良い。また、表示部2a及び表示部2bは、各種の情報を利用者の前方(利用者から離れた位置)にあたかも存在するかのように表示しても良い。このように情報を表示する方式としては、例えば、フレームシーケンシャル方式、偏光方式、直線偏光方式、円偏光方式、トップアンドボトム方式、サイドバイサイド方式、アナグリフ方式、レンチキュラ方式、パララックスバリア方式、液晶パララックスバリア方式、2視差方式等の多視差方式の何れかが採用されて良い。
 撮像部3及び撮像部4は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。そして、撮像部3及び撮像部4は、撮像した画像を信号に変換して制御部7へ出力する。
 検出部5は、利用者の前景に存在する現実の物体(所定物)を検出する。検出部5は、例えば、現実の物体のうち、予め登録された物体又は予め登録された形状にマッチする物体を検出する。予め登録された物体は、例えば、人間の手や指を含む。予め登録された形状は、例えば、人間の手や指等の形状を含む。検出部5は、現実の物体を検出するセンサを有する。検出部5は、例えば、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な、センサとしての赤外線撮像部と、からなる。赤外線照射部は、ウェアラブル装置1の前面部1aに設けられることによって、利用者の前方に赤外線を照射可能となる。また、赤外線撮像部は、ウェアラブル装置1の前面部1aに設けられることによって、利用者の前方に在る所定物から反射される赤外線を検出可能となる。なお、検出部5は、赤外線の他にも、例えば、可視光、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、現実の物体を検出しても良い。
 本実施形態においては、撮像部3(アウトカメラ)は、検出部5を兼ねても良い。すなわち、撮像部3は、撮像される画像を解析することによって、撮像範囲内の物体を検出する。撮像部3は、利用者の前方の所定物を撮像可能なように、図1に示すような、ウェアラブル装置1の前面部1aに設けられる。
 操作部6は、例えば、側面部1cに配設されるタッチセンサを含む。タッチセンサは、利用者の接触を検出可能であり、検出結果に応じて、ウェアラブル装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。本実施形態では、操作部6が側面部1cに配置されている例を示しているが、これに限定されず、側面部1bに配置されても良いし、側面部1bと側面部1cにとの双方に配置されても良い。
 制御部7は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備える。制御部7は、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部7は、記憶部9に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部7は、CPUによる命令の実行結果に応じて、メモリ及び記憶部9に対してデータの読み書きを行ったり、表示部2a及び表示部2b等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部5等を介して検出される操作がパラメータや判定条件の一部として利用される。また、制御部7は、通信部8を制御することによって、通信機能を有する他の電子機器との通信を実行させる。
 通信部8は、無線により通信する。通信部8によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信部8は、上述した通信規格の1つ又は複数をサポートしていても良い。ウェアラブル装置1は、例えば、無線通信機能を有する他の電子機器(スマートフォン、ノートパソコン、テレビ等)と無線通信接続を行うことにより、各種信号の送受信を行うことが出来る。
 なお、通信部8は、上記携帯電子機器等の他の電子機器と有線接続されることによって、通信しても良い。この場合、ウェアラブル装置1は、他の電子機器が接続されるコネクタを備える。コネクタは、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であっても良い。コネクタは、Dockコネクタのような専用の端子でも良い。コネクタは、上記の電子機器以外にも、例えば、外部ストレージ、スピーカ、及び通信装置を含むあらゆる装置に接続されて良い。
 記憶部9は、各種のプログラムやデータを記憶する。記憶部9は、フラッシュメモリ等の不揮発性を有する記憶装置を含んでも良い。記憶部9に記憶されるプログラムには、制御プログラム90が含まれる。記憶部9は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されても良い。この場合、制御プログラム90は、記憶媒体に記憶されていても良い。また、制御プログラム90は、無線通信または有線通信によってサーバ装置や、スマートフォン、腕時計型端末、ノートパソコン、テレビ等から取得されても良い。
 制御プログラム90は、ウェアラブル装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム90は、検出処理プログラム90aと、表示制御プラグラム90bとを含む。検出処理プログラム90aは、検出部5の検出結果から、利用者の前景に存在する所定物を検出するための機能を提供する。検出処理プログラム90aは、検出部5の検出結果から、利用者の前景における所定物の位置、及び、所定物の動作を検出する機能を提供する。表示制御プラグラム90bは、利用者に視認可能なように画像を表示し、所定物の動作に応じて、画像の表示の態様を変更する機能を提供する。
 次に、図3Aから図3Cを参照し、検出部5の検出範囲と、表示部2a及び表示部2bの表示領域との関係について説明する。図3Aから図3Cは、検出部の検出範囲と、表示部の表示領域との関係について説明する図である。なお、本実施形態では、検出部5が赤外線によって現実の所定物を検出するセンサであるものとして説明していく。検出部5は、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な(赤外感度を有する)赤外線撮像部とからなるものとして説明していく。即ち、制御部7は、赤外線撮像部の撮像画像から、現実の所定物を検出する。また、本実施形態では、表示部2a及び表示部2bがウェアラブル装置1から離れた位置にあたかも存在するかのように表示画像を表示させるものとして説明していく。
 図3Aは、検出部5の検出範囲51と、表示部2a及び2bの表示領域21とを模式的に示した斜視図である。図3Bは、図3Aの上面図である。図3Cは、図3Aの正面図である。図3Aから図3Cは、X軸、Y軸、Z軸からなる三次元直交座標系が定義されている。X軸方向は、水平方向を指す。Y軸方向は、鉛直方向或いは利用者の体の長軸方向を指す。Z軸方向は、利用者の前後方向を指す。また、Z軸正方向は、検出部5が含む赤外線照射部の照射におけるより大きい深度の方向を指す。なお、図3Cは、利用者が前方を視認した際の視界に相当する。
 図3Aから図3Cから解るように、検出範囲51は、3次元空間を有する。赤外線照射部と赤外線撮像部とからなる検出部5は、利用者の前方の所定物を2次元的な画像として検出するとともに、該所定物の形状を検出することができる。また、検出部5は、所定物を2次元的な画像として検出するとともに、該画像の各画素の位置座標データに対応する深度データを取得することができる(即ち深度データが付加された深度画像を取得することができる)。深度データは、検出部5と、2次元的な画像における各画素に対応する現実の物体(所定物)までの距離を示すデータである。制御部7は、検出部5の検出結果に基づき、例えば、所定物が利用者の腕、手、又は指、或いはこれらを組み合わせたもの(上肢と総称する)である場合の該所定物の動作として、指の曲げ動作・伸展動作、手首の曲げ、前腕の回転(回内又は回外)、等の身体動作を検出できる。
 なお、制御部7は、上記の身体動作の他に、上肢の特定箇所の位置が、検出範囲51内において移動をすることを身体動作として検出しても良い。また、制御部7は、上肢が特定の形状を形成したことを身体動作として検出しても良い。例えば、制御部7は、親指を上方に伸ばしつつ他の指を握った形態(グッドサイン)等を身体動作として検出して良い。
 なお、撮像部3(アウトカメラ)を検出部として適用した場合であっても、上記検出部5と同様に、制御部7は、検出範囲内(撮像範囲内)に在る所定物の検出、所定物の動作等の検出が可能である。
 次に、表示部2a及び表示部2bは、図3Aから図3Cから解るように、実際に設けられたウェアラブル装置1の部分ではなく、ウェアラブル装置1から離れた位置となる表示領域21において利用者によって視認可能なように画像を表示する(以下、表示部2a及び表示部2bが表示する画像を表示画像と称することもある)。このとき、表示部2a及び2bは、表示画像を、奥行きを持つ立体形状の3Dオブジェクトとして表示しても良い。なお、当該奥行きは、Z軸方向における厚みに対応する。しかしながら、表示部2a及び表示部2bは、ウェアラブル装置1から離れた位置となる表示領域21において利用者によって視認可能なように画像を表示するのではなく、実際に設けられたウェアラブル装置1の表示部2a及び表示部2bの部分に画像を表示しても良い。
 次に、図4~図11を参照して、本実施形態に係るウェアラブル装置1により実行される機能を説明する。以下に示す各種の機能は、制御プログラム90によって提供される。図4は、ウェアラブル装置1により実行される機能の第1例を説明する図である。
 図4には、ウェアラブル装置1の表示部2a或いは表示部2b(以後、単に表示部2と称することもある)、表示部2の表示領域21、及び利用者の上肢が示されている。また、図4は、凡そ、利用者によって2次元的に視認され得る領域として示されている。なお、後述する図5~図10の例においても同様である。
 ステップS1において、ウェアラブル装置1は、ウェブブラウザアプリケーションを実行しており、利用者の所望とする検索ワードを入力し、該検索ワードに基づき検索を行うための検索画面SC1を表示部2に表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の上肢の位置に対応する表示位置に、検出部5の検出結果に基づいて制御部7に検出される上肢の形状と略同形状の表示オブジェクト(以後、手オブジェクトHと称する)を表示部2に表示している。ウェアラブル装置1は、検出部5の検出範囲51内の予め定められた所定空間の座標位置と表示領域21の座標位置とを対応付けて記憶している。そのため、利用者は、手オブジェクトHの表示位置を視認しながら、現実の空間において上肢を動かすことにより、表示領域21における所望とする位置に手オブジェクトHを移動させることができる。また、ステップS1においては、利用者が現実の空間において、上肢における人差し指を伸展させていることに基づき、ウェアラブル装置1は、人差し指を伸展させた手を模した画像を手オブジェクトHとして表示部2に表示している。
 ステップS1に示すように、利用者が現実の空間において上肢を動かすことにより、ウェアラブル装置1は、手オブジェクトHを点線で示した位置から、人差し指の指先部分が検索画面SC1における文字入力領域SC11と重畳する位置へ、該手オブジェクトHを移動させる。ウェアラブル装置1は、利用者によって文字入力操作が開始されるものと認識する。ウェアラブル装置1は、手オブジェクトHが文字入力領域SC11と重畳する位置へ移動することにより、利用者によって文字入力を行う操作が開始されるものと認識する。ウェアラブル装置1は、例えば、ステップS2に示すように、上肢の身体動作に基づく手オブジェクトHの位置及び形状の変化に応じて文字を入力可能な文字キーSC2を検索画面SC1の一部に重畳させて表示する。また、ウェアラブル装置1は、ステップS2において、検索画面SC1における文字入力領域SC11に、前回のウェブブラウザアプリケーションの起動時に入力されていた文字列「carrot recipes」を表示している。
 次に、手オブジェクトHが文字入力領域SC11の近くに位置している状態において、利用者は、上肢における人差し指と親指を伸展させた状態から、人差し指と親指とを互いに近づける動作(摘まむ動作)を行っている。ステップS3において、ウェアラブル装置1は、上肢における人差し指と親指を伸展させた状態を検出すると、入力していた文字列「carrot recipes」が利用者によって選択されたものと見なす。そして、ステップS4において、ウェアラブル装置1は、上肢における人差し指と親指とを互いに近づける動作を検出すると、利用者によって選択されたものと見なした文字列「carrot recipes」を消去する。ここで、「人差し指と親指とを互いに近づける動作」とは、人差し指の所定領域(例えば指先)と、親指の所定領域(例えば、指先)とを互いに近づける動作を示す。また「指先」とは、例えば、指の第1間接から指の先端に至る部分として良い。
 このように、本実施形態に係るウェアラブル装置1は、文字を表示する表示部2と、現実の空間に在る所定物を検出する検出部5と、検出部5の検出結果から、上肢における一部(第1例では人差し指)と他部(第1例では親指)とが互いに近づく第1身体動作を検出すると、文字を選択する文字選択処理を実行する制御部7と、を備える。このような構成を有することにより、ウェアラブル装置1において、摘まむ動作のような、より簡易な動作によって文字を選択することができるため、利用者にとって使い勝手が良くなる。
 なお、本実施形態に係るウェアラブル装置1において、制御部7は、人差し指の指先と親指の指先とを互いに近づける動作(第1身体動作)を検出すると、当該動作に基づいて変化する、人差し指の指先と親指の指先との距離を検出する。制御部7は、検出した距離が所定長さ以下となったことを契機に、文字選択処理を実行するようにしても良い。ここで、「人差し指の指先と親指の指先との距離」とは、現実に存在する上肢における人差し指の指先と親指の指先との現実の空間における距離を意味していても良いし、手オブジェクトHにおける人差し指の指先と親指の指先との距離を意味していても良い。また「所定長さ」とは、「人差し指の指先と親指の指先との距離」が、手オブジェクトHにおける人差し指の指先と親指の指先との距離を意味する場合においては、例えば、対象とする文字列の半分の長さであっても良い。図4に示す例では、ウェアラブル装置1は、第1身体動作を検出すると、手オブジェクトHにおける人差し指の指先と親指の指先との距離が、「carrot recipes」の文字列が表示されている部分の長さdの半分の長さ(1/2d)以下となった場合に、当該文字列が利用者によって選択されたものと見なす。また、「所定長さ」は、人差し指の指先と親指の指先とが互いに触れたと見なせる長さ、即ち、ゼロとしても良い。
 また、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出し、かつ、該第1身体動作における一部(第1例では人差し指)又は他部(第1例では親指)の移動速度が第1速度以上であることを検出すると、文字選択処理を実行するようにしても良い。このような構成とすることで、ウェアラブル装置1は、利用者の意図した身体動作によって文字選択を行い易くすることができる。
 図5は、ウェアラブル装置1により実行される機能の第2例を説明する図である。第2例は、第1例と同様に、ウェブブラウザアプリケーションが起動している場合を示している。
 ステップS11において、ウェアラブル装置1は、検索画面SC1及び文字キーSC2を表示部2に表示している。また、ウェアラブル装置1は、検索画面SC1における文字入力領域SC11に、前回のウェブブラウザアプリケーションの起動時に入力されていた文字列「carrot recipes」を表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の上肢の位置に対応する表示位置に、検出部5によって検出結果に基づいて制御部7に検出される上肢の形状と略同形状の手オブジェクトHを表示部2に表示している。
 ステップS11において、利用者は、上肢を動かすことにより、手オブジェクトHの親指の指先を文字列「recipes」の先頭に位置させ、一方で、人差し指の指先を「recipes」の後尾に位置させている。このとき、手オブジェクトHの親指の指先と人差し指の指先とは、「recipes」の表示領域の長さd2だけ離間している。次に、利用者は、ステップS11に示す状態から、利用者が人差し指の指先と親指の指先とを互いに近づける動作(第1身体動作)を行う。ステップS12において、ウェアラブル装置1は、第1身体動作を検出すると、文字列「carrot recipes」の内の「recipes」の部分が利用者によって選択されたものと見なす。ステップS12に示す例では、ウェアラブル装置1は、第1身体動作を行う上肢の形状と略同形状の手オブジェクトHを表示部2に表示している。ステップS13において、ウェアラブル装置1は、利用者によって選択されたものと見なした文字列「recipes」を文字入力領域SC11から消去する。
 以上のように、本実施形態に係るウェアラブル装置1において、表示部2は複数の文字からなる文字列を表示し、制御部7は、第1身体動作を検出すると、前記文字列における、第1身体動作が検出される直前の手オブジェクトHの一部(親指の指先)の位置と他部(人差し指の指先)の位置とによって規定される数の文字(第2例では「recipes」)に対して文字選択処理を実行する。ここで、「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」とは、第2例のように、手オブジェクトHの一部(親指の指先)と重畳する文字「r」と手オブジェクトHの他部(人差し指の指先)と重畳する文字「s」との間に含まれる文字列(「r」、「s」も含む文字列、即ち「recipes」)であって良い。また、「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」とは、手オブジェクトHの一部のX座標位置と略同一のX座標位置に表示されている文字(Y軸座標位置は同一でなくても良い)と、手オブジェクトHの他部のX座標位置と略同一のX座標位置に表示されている文字(Y軸座標位置は同一でなくても良い)と、の間に含まれる文字列としても良い。また、「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」とは、上肢の一部と他部の位置との間の距離のX軸方向成分(即ち、文字列の入力方向の成分)と同程度の長さとなる文字列としても良い。また、第2例のように複数の単語(「carrot」と「recipes」)が表示されている場合には、当該単語の表示領域のX軸方向における長さが、上肢の一部と他部の位置との間の距離のX軸方向成分により近い一方を「手オブジェクトHの一部の位置と他部の位置とによって規定される数の文字」と見なしても良い。
 また、第1例において、ウェアラブル装置1は、第1身体動作を検出し、当該第1身体動作における上肢の一部又は他部の移動速度が第1速度以上であることを検出すると、文字選択処理を実行するようにしても良いことを説示した。一方で、ウェアラブル装置1は、上肢の一部又は他部の第1速度未満の動作によっては文字選択処理が実行されない。このため、利用者は、上肢の一部又は他部を第1速度未満で適宜移動させることにより、利用者の所望とする文字列、或いは文字数を指定することができる(文字列を指定した後に、第1速度以上の第1身体動作を行えば、当該指定した文字列に対して文字選択処理が実行される)。また、ウェアラブル装置1は、表示領域21における、手オブジェクトHの一部の位置と他部の位置とが所定時間以上変動しなかった場合に、当該位置に基づいて利用者の所望とする文字列、或いは文字数が指定されたものと見なしても良い。
 以上に説明した第1例及び第2例においては、ウェアラブル装置1は、利用者の第1身体動作を検出すると、制御部7が文字選択処理によって選択した文字を消去する文字消去処理を実行する例を示した。ここで、第1例及び第2例のように、制御部7は、表示部2による検索画面SC1における文字入力領域SC11(文字入力画面と称する)の表示時に、該表示時以前に入力された文字(文字列「carrot recipes」)が表示されると、第1身体動作の検出の有無を監視する。制御部7は、第1身体動作の検出が有ったこと契機に、入力された文字「carrot recipes」に対する文字消去処理を実行する構成を有していて良い。第1例及び第2例のように、ウェアラブル装置1は、所定のアプリケーションを起動した際に、前回の起動時に入力されていた文字列を再度表示する場合がある。この場合に、ウェアラブル装置1は、再度表示された文字を上記の第1身体動作のような簡易な動作によって、一括して消去できるので、利用者にとって使い勝手が良くなる。なお、ウェアラブル装置1は、文字消去処理の実行後に、身体動作として、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、消去した文字を再入力するようにしても良い。また、ウェアラブル装置1は、文字消去処理の実行後、所定時間内に、第2身体動作を検出すると、消去した文字を再入力するようにしても良い。
 図6は、ウェアラブル装置1により実行される機能の第3例を説明する図である。第3例は、ウェアラブル装置1によってメールアプリケーションが起動されている場合を示している。
 ステップS21において、ウェアラブル装置1は、他の通信端末とのメールのやりとりを示すメール画面SC3を表示部2に表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の右上肢の位置に対応する表示位置に、検出部5によって検出結果に基づいて制御部7に検出される右上肢の形状と略同形状の右手オブジェクトRHを表示部2に表示している。右手オブジェクトRHは、メール画面SC3中の一部のメッセージSC31に重畳して表示されている。
 ここで、利用者が右上肢を動かすことにより、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行うと、ウェアラブル装置1は、文字選択処理を実行する。ステップS22において、ウェアラブル装置1は、第1身体動作がなされる直前における右手オブジェクトRHの人差し指の指先の位置と親指の指先の位置に基づいて、或いは、人差し指の指先と親指の指先とが距離d3だけ離間していることに基づいて、メッセージSC31の内の一部の文字列「19時に○○駅前」に対して文字選択処理を実行する。そして、ウェアラブル装置1は、文字選択処理を実行するとともに、文字列「19時に○○駅前」をコピーする複製処理、即ち、文字列「19時に○○駅前」を一時的に記憶する処理を実行する。なお、文字列「19時に○○駅前」に対する複製処理がなされたことを視認しやすくするために、ウェアラブル装置1は、文字列「19時に○○駅前」の表示態様を変更する。
 ステップS22において、複製処理を実行した後に、利用者は、ウェアラブル装置1の検出部5の検出範囲51内に左上肢を移動させる。ステップS23において、ウェアラブル装置1は、検出部5の検出結果に基づいて左上肢の形状と略同形状の左手オブジェクトLHを表示部2に表示する。ステップS23において、例えば、利用者は、現実の空間において左上肢を左方向に移動させている。ステップS24において、ウェアラブル装置1は、左手オブジェクトLHの表示位置を表示領域21における左方向に移動させるとともに、左上肢が移動したことに基づいて、メール画面SC3から異なる画面へ表示を遷移させる。遷移後の画面は、ステップS24に示すように、例えば、利用者の操作によって文字を入力することが可能なメモ画面SC4である。
 ステップS24において、利用者は、現実の空間において右上肢を動かすことにより、メモ画面SC4上に右手オブジェクトRHを移動させ、右手オブジェクトRHの人差し指と親指とを互い離間させる(第2身体動作を行う)。ステップS25において、ウェアラブル装置1は、第2身体操作を検出すると、複製処理によって一時的に記憶していた文字列「19時に○○駅前」をメモ画面SC4内に入力(ペースト)する。
 以上のように、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出すると、文字選択動作によって選択した文字(第3例においては、文字列「19時に○○駅前」)をコピーする複製処理を実行する。
 また、本実施形態に係るウェアラブル装置1において、制御部7は、複製処理の実行後に、身体動作として、手オブジェクトHの一部(親指の指先)と他部(人差し指の指先)とが互いに離れる第2身体動作を検出すると、文字選択動作によってコピーした文字を表示部2にペーストする貼付処理を実行する。なお、ウェアラブル装置1は、貼付処理を実行した後、複製処理を実行した状態を解除、即ち、一時的に記憶していた文字列を記憶しない状態へ変更しても良い。また、ウェアラブル装置1は、貼付処理を実行した後も、複製処理を実行した状態を維持、即ち、文字選択処理によって選択した文字列を継続して記憶しても良い。当該構成によれば、ウェアラブル装置1は、利用者が第1身体動作を繰り返し行うことで、当該繰り返した回数だけ貼付処理を実行させることができる。また、ウェアラブル装置1は、貼付処理を実行した後も、複製処理を実行した状態を維持し、利用者の操作に基づき、他の文字列に対する文字選択処理を実行する際に、一時的に記憶する文字列を他の文字列に置換するようにしても良い。
 また、ウェアラブル装置1は、第1身体動作に基づき文字選択処理及び複製処理を実行すると、当該第1身体動作後の上肢の一部と他部とが近づいた状態が維持されているか否かを判定しても良い。例えば、ウェアラブル装置1は、当該状態が維持されている場合には、文字選択処理及び複製処理を継続し、一方で、当該状態が解除された、即ち、上肢の一部と他部とが離れた場合には、文字選択処理及び複製処理を解除するにようにしても良い。
 また、ウェアラブル装置1は、右上肢による第1身体動作に基づいて第1文字列に対する文字選択処理及び複製処理を実行し、一方で、左上肢による第1身体動作に基づいて第2文字列に対する文字選択処理及び複製処理を実行しても良い。この場合、ウェアラブル装置1は、第2身体動作に基づき、選択した文字列の貼付処理を実行するに際し、当該第2身体動作が左上肢に依るものなのか、右上肢に依るものなのかを判定しても良い。例えば、ウェアラブル装置1は、左上肢に依る第2身体動作である場合には第1文字列を貼り付ける処理を実行し、一方で、右上肢に依る第2身体動作である場合には第2文字列を貼り付ける処理を実行するようにしても良い。また、ウェアラブル装置1は、上肢の親指と人差し指とが互いに近づく第1身体動作に基づいて第1文字列に対する文字選択処理及び複製処理を実行し、一方で、上肢の親指と中指とが互いに近づく第1身体動作に基づいて第2文字列に対する文字選択処理及び複製処理を実行するようにしても良い。この場合、ウェアラブル装置1は、第2身体動作に基づき、選択した文字列の貼付処理を実行するに際し、当該第2身体動作が、親指と人差し指とが離れる動作であるか、親指と中指とが離れる動作であるか、を判定する。例えば、ウェアラブル装置1は、親指と人差し指とが離れる動作である場合には第1文字列を貼り付ける処理を実行し、一方で、親指と中指とが離れる動作である場合には第2文字列を貼り付ける処理を実行するようにしても良い。このような構成によれば、ウェアラブル装置1は、第1身体動作における上肢の一部と他部との組み合わせの種類に対応する数だけそれぞれ異なる複製処理を実行することができるので、ウェアラブル装置1の操作性が向上する。
 図7は、ウェアラブル装置1により実行される機能の第4例を説明する図である。ウェアラブル装置1は、メールアプリケーションを起動している。ステップS31において、ウェアラブル装置1は、メール画面SC3と右手オブジェクトRHを表示部2に表示している。また、メール画面SC3中の一部のメッセージSC32に右手オブジェクトRHが重畳して表示されている。
 ここで、利用者が右上肢を動かすことにより、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行うと、ウェアラブル装置1は、文字選択処理を実行する。ステップS32において、ウェアラブル装置1は、複数の行で構成される文字列を含むメッセージSC32の内、第1身体動作がなされる直前における右手オブジェクトRHの人差し指の指先の位置と親指の指先の位置に基づいた行数の文字列に対して文字選択処理を実行する。図7に示す例では、ウェアラブル装置1は、人差し指の指先と親指の指先とが距離d4だけ離間していることに基づいた2行分の行数の文字列「http://・・・」に対して文字選択処理を実行する。そして、ウェアラブル装置1は、文字選択処理を実行するとともに、文字列「http://・・・」をコピーする複製処理、即ち、文字列「http://・・・」を一時的に記憶する処理を実行する。なお、ステップS32に示す例では、文字列「http://・・・」に対する複製処理がなされたことを視認しやすくするために、ウェアラブル装置1は、文字列「http://・・・」の表示態様を変更する。
 ステップS33において、ウェアラブル装置1は、複製処理を実行した後に、図6のステップS23に示したような所定の操作が利用者によってなされたことに基づいて、メール画面SC3から異なる画面(メモ画面SC4)へ表示を遷移させる。ステップS33において、利用者は、現実の空間において右上肢を動かすことにより、メモ画面SC4上に右手オブジェクトRHを移動させ、右手オブジェクトRHの人差し指と親指とを互い離間させる(第2身体動作を行う)。ステップS34において、ウェアラブル装置1は、複製処理によって一時的に記憶していた文字列「http://・・・」をメモ画面SC4内に入力(ペースト)する。
 以上のように、本実施形態に係るウェアラブル装置1において、表示部2は、複数の行で構成される文字列を表示し、制御部7は、第1身体動作を検出すると、文字列における、該第1身体動作が検出される直前の上肢の一部の位置と他部の位置とによって規定される行数の文字列(図7の例では2行分の文字列)に対して文字選択処理を実行する。ここで、「上肢の一部の位置と他部の位置とによって規定される行数の文字列」とは、図7の例のように、手オブジェクトHの一部(親指の指先)と重畳する行と、手オブジェクトHの他部(人差し指の指先)と重畳する行と、双方の行の間に含まれる行と、を構成する文字列であって良い。また、「上肢の一部の位置と他部の位置とによって規定される行数の文字列」とは、手オブジェクトHの一部のY座標位置と略同一のY座標位置に表示されている行(X軸座標位置は同一でなくても良い)と、手オブジェクトHの他部のY座標位置と略同一のY座標位置に表示されている行(X軸座標位置は同一でなくても良い)と、双方の行の間に含まれる他の行と、を構成する文字列としても良い。また、「上肢の一部の位置と他部の位置とによって規定される行数の文字列」とは、上肢の一部と他部の位置との間の距離のY軸方向成分(即ち、文字列の入力方向と垂直な方向の成分)と同程度の長さとなる行数の文字列としても良い。また、ウェアラブル装置1は、上肢の一部の位置と他部の位置とによって規定される行に加えて、当該規定された行の文字列と連続して一の文節(或いは、一の意味内容)を構成する他の文字列が含まれる上段の行又は下段の行も合わせて、文字選択処理の対象とされても良い。例えば、文字列「http://・・・」が、2行分の文字列で1つのURLを構成しているものと仮定すれば、たとえ1行分(文字列「http://・・・」の一部)しか指定しなかったとしても、文字列「http://・・・」の全部(2行分)を文字選択処理の対象にすることができる。また、メッセージSC32(対象となる文字列)が複数の行からなるパラグラフを含む場合、ウェアラブル装置1は、上肢の一部の位置と他部の位置とによって規定される行を含むパラグラフ全部が、文字選択処理の対象とされても良い。また、メッセージSC32(対象となる文字列)が複数のパラグラフを含む場合、ウェアラブル装置1は、上肢の一部の位置に重畳する行を含む第1のパラグラフと、上肢の他部の位置に重畳する行を含む第2のパラグラフの双方(或いは、第1のパラグラフと第2のパラグラフとの間に他のパラグラフがある場合には、該他のパラグラフも含む)が、文字選択処理の対象とされても良い。
 以上の各実施形態において、文字列の横方向の規定と縦方向の双方において、文字選択処理の対象となる範囲の指定が可能であることを示した。次に、図8を参照して、文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する。図8A及び図8Bは、文字選択処理を実行するための第1身体動作における上肢の一部と他部とが近づく方向の条件について説明する図である。
 図8Aに示すように、制御部7は、第1身体動作を検出すると、上肢における一部と他部とが互いに近づく方向と、文字が順番に入力される入力方向(X軸方向)と、が交わる角度θ1を算出する。制御部7は、該角度θ1が第1角度以下である場合に、文字選択処理を実行するようにして良い。ここで、角度θ1は、例えば、0~45度の範囲内で適宜設定されると良い。
 また、図8Bに示すように、制御部7は、上肢における一部と他部とが互いに近づく方向と、文字の入力方向と垂直な方向(Y軸方向)、が交わる角度θ2を算出する。制御部7は、該角度θ2が第2角度以下である場合に、文字選択処理を実行するようにして良い。ここで、角度θ2は、例えば、0~45度の範囲内で適宜設定されると良い。
 図9は、ウェアラブル装置1により実行される機能の第5例を説明する図である。第5例は、メールアプリケーションが起動している場合を示している。ステップS41において、ウェアラブル装置1は、メール画面SC3と右手オブジェクトRHを表示部2に表示している。また、メール画面SC3中の一部のメッセージSC32には、右手オブジェクトRHが重畳して表示されている。
 ここで、利用者が右上肢を動かすことにより、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行うと、ウェアラブル装置1は、文字選択処理を実行する。ステップS42において、ウェアラブル装置1は、第1身体動作における人差し指の指先と親指の指先とを互いに近づく方向が略縦方向(Y軸方向)であり、かつ、第1身体動作後の右手オブジェクトRHの人差し指の指先がメッセージSC321の上端に、親指の指先がメッセージSC321の下端に位置していることに基づいて、メッセージSC321を文字選択処理の対象とする。ウェアラブル装置1は、利用者によってメッセージSC321が選択されたものと見なしたことを契機に、メッセージSC321の表示態様を変更する。なお、図9に示す例は、第1身体動作後の上肢の一部の位置と他部の位置とに基づいて、文字選択処理の対象とする文字列を決定する点において、上記の各実施形態とは異なる。
 ステップS42において、利用者は、右手オブジェクトRHがメッセージSC321を摘まんでいる状態、即ち、人差し指と親指との離間距離が略同一に維持された状態において、利用者が現実の空間において上肢を動かしている。この動作を検出することにより、ステップS43において、ウェアラブル装置1は、右手オブジェクトRHを表示部2の表示領域21における右方向へ移動させる。この場合、ウェアラブル装置1は、文字選択処理で選択したメッセージSC321中を構成する文字をコピーする複製処理を実行するとともに、メッセージSC321の表示位置を右方向へ移動させる。
 そして、ステップS43において、利用者は、ウェアラブル装置1の検出部5の検出範囲51内に左上肢を移動させている。ステップS43において、ウェアラブル装置1は、検出部5の検出結果に基づいて左上肢の形状と略同形状の左手オブジェクトLHを表示部2に表示する。そして、例えば、利用者が現実の空間において左上肢を左方向に移動させると、ウェアラブル装置1は、検出部5の検出結果から左上肢の身体動作を検出し、左手オブジェクトLHの表示位置を表示領域21における左方向に移動させる。また、ステップS43において、ウェアラブル装置1は、左上肢の身体動作を検出すると、利用者による操作がなされたものと見なし、例えば、メール画面SC3から異なる画面へ表示を遷移させる。遷移後の画面は、例えば、ステップS44に示すように検索画面SC5である。なお、ウェアラブル装置1は、メール画面SC3から検索画面SC5に表示を遷移させるに際して、右手オブジェクトRHが摘まんでいるメッセージSC321の表示を維持する、即ち、メッセージSC321中の文字をコピーしている状態を維持する。
 ステップS44において、利用者が現実の空間において右上肢を動かすことにより、ウェアラブル装置1は、検索画面SC5における文字入力領域SC51にメッセージSC321が重畳するように、右手オブジェクトRHの表示位置を移動させる。ステップS45において、ウェアラブル装置1は、文字入力領域SC51にコピーしていたメッセージSC321内の文字を入力、即ち、ペーストする貼付処理を実行する。なお、ウェアラブル装置1は、文字入力領域SC51にメッセージSC321が重畳するように、右手オブジェクトRHの表示位置を移動させることに基づいて、文字入力領域SC51にメッセージSC321内の文字をペーストすることに限定しない。例えば、ウェアラブル装置1は、文字入力領域SC51にメッセージSC321が重畳するように、右手オブジェクトRHの表示位置が移動し、該移動後に右手オブジェクトRHの人差し指の指先と親指の指先とが離れたことに基づいて、文字入力領域SC51にメッセージSC321内の文字をペーストするようにしても良い。この場合、利用者は、文字入力領域SC51にメッセージSC321を構成する文字をペーストするために、現実の空間において、右上肢を移動させ、かつ人差し指の指先と親指の指先とを離す動作(第2身体動作)を行えば良い。
 上述したように第5例では、第1身体動作前ではなく、第1身体動作後の上肢の一部の位置と他部の位置とに基づいて、文字選択処理の対象とする文字列を決定する点において、上記の各実施形態とは異なる。第5例では、メッセージSC321に対する文字選択処理を実施するための操作が、必ずしも、上肢の一部と他部とが互いに近づく第1身体動作である必要はない。例えば、ウェアラブル装置1は、単に、上肢の一部がメッセージSC321の上端に位置し、他部がメッセージSC321の下端に位置したことに基づいて、メッセージSC321に対する文字選択処理を実行しても良い。或いは、ウェアラブル装置1は、上肢の一部がメッセージSC321の上端に位置し、他部がメッセージSC321の下端に位置した状態が所定時間以上継続したことに基づいてメッセージSC321に対する文字選択処理を実行しても良い。
 図9に示したように、本実施形態に係るウェアラブル装置1は、複数の文字からなる文字列を表示する表示部2と、現実の空間に在る利用者の上肢を検出する検出部5と、前記文字列の内、検出部5によって検出される上肢の一部の位置と他部の位置とによって規定される範囲に含まれる第1文字列(図9の例では、メッセージSC321)を選択する文字選択処理を実行する制御部7と、を備える頭部に装着可能なウェアラブル装置1であって、制御部7は、文字選択処理の実行中に、上肢一部と他部との間の離間距離が略同一に維持された状態で、該上肢の所定の身体動作(図9の例では、上肢を右方向へ移動させる動作)を検出したことに基づいて、第1文字列に対して所定の処理(図9の例では、メッセージSC321内の文字列をコピーする複製処理)を実行する。ここで、所定の身体動作は、例えば、文字選択処理を実行させるための上肢の一部と他部とを近づける動作における、該一部と他部とが近づく方向と略直交する(或いは所定範囲内の角度で交わる)方向へ上肢を移動させる動作であって良い。当該動作であれば、文字選択処理のための操作と、所定の処理を実行させるための操作と、の間で身体動作が混同し難く、従って、誤操作が生じ難くなる。
 図10は、ウェアラブル装置1により実行される機能の第6例を説明する図である。ステップS51に示すように、ウェアラブル装置1は、利用者に所定の情報を入力させるための入力フォームSC6を表示部2に表示している。また、ウェアラブル装置1は、検出部5の検出範囲51における利用者の上肢の位置に対応する表示位置に、検出部5によって検出結果に基づいて検出される上肢の形状と略同形状の手オブジェクトHを表示部2に表示している。
 ステップS51において、入力フォームSC6における電話番号入力領域には、全角数字列「080-」(文字列T1)が入力されている。ステップS52において、利用者は、現実の空間において上肢を動かすことにより、文字列T1「080-」の先頭に右手オブジェクトRHの親指の指先を位置させ、文字列T1「080-」の後尾に右手オブジェクトRHの人差し指の指先を位置させている。次に、利用者は、右手オブジェクトRHの人差し指の指先と親指の指先とを互いに近づける動作を(第1身体動作)を行っている。ステップS52において、ウェアラブル装置1は、当該近づける動作を検出すると、文字列T1「080-」が利用者によって選択されたものと見なす。即ち、ウェアラブル装置1は、文字列T1を選択する文字選択処理を実行する。
 ステップS52において、ウェアラブル装置1は、文字列T1を選択する文字選択処理を実行するとともに、当該選択した文字列T1の文字種を変更する。ウェアラブル装置1は、文字種の変更として、ステップS53に示すように、全角数字である文字列T1から半角数字である文字列T2へ変更する。
 以上のように、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出すると、文字列T1を選択するとともに、該文字の文字種を変更する文字種変更処理を実行する。
 なお、文字種の変更は、全角文字から半角文字への変更に限られない。図11Aから図11Dは、文字種の変更の他の例を示す図である。
 図11Aに示す例では、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、第6例と同様に、文字を全角から半角に変換、若しくは、文字の大きさを変更する例を示している。なお、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、文字の大きさを縮小し、一方で、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、文字の大きさを拡大する構成として良い。
 即ち、本実施形態に係るウェアラブル装置1において、制御部7は、検出部5の検出結果から、上肢における一部と他部との距離の変化を伴う身体動作を検出すると、文字の文字種を変更する文字種変更処理を実行するものと特徴付けられても良い。このような構成を有することにより、ウェアラブル装置1は、摘まむ動作のような、より簡易な動作によって、入力されている文字の文字種を変更することができるため、利用者にとって使い勝手が良くなる。
 また、本実施形態に係るウェアラブル装置1において、文字種変更処理は、所定の2種の文字種の内、一方から他方へ変更する動作であり、一部と他部との距離が小さくなる第1身体動作を検出すると、一方から他方へ変更し、一方、一部と他部との距離が大きくなる第2身体動作を検出すると、他方から一方へ変更する。また、2種の文字種は、互いに大小関係を有する文字種であり、ウェアラブル装置1は、第1身体動作を検出すると、2種の文字種の内の相対的に大きな一方(全角表記)から相対的に小さな他方(半角表記)へ変更し、第2身体動作を検出すると、2種の文字種の内の相対的に小さな一方から相対的に大きな他方へ変更するようにしても良い。なお、ウェアラブル装置1は、文字種変更処理の対象となる文字列が全角表記の文字と半角表記の文字との双方を含む場合には、第1身体動作に基づき、文字列中の全角表記の文字を半角表記へ変更し(元々半角表記の文字は文字種を変更しない)、第2身体動作に基づき、文字列中の半角表記の文字を全角表記へ変更(元々全角表記の文字は文字種を変更しない)するようにしても良い。
 図11Bに示す例では、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、かな文字で表記された文字列「にんじん」を漢字表記の文字列「人参」に変換する例を示している。なお、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、かな文字での表記から、漢字での表記に変更し、一方で、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、漢字での表記から、かな文字での表記に変換する構成として良い。かな文字で表記された文字列(単語)と、該文字列に対応する漢字とでは、漢字表記の場合の方が、文字数が少なくなる場合が多い。そのため、第1身体動作又は第2身体動作による上肢の一部と他部との間の距離の増減に従って、文字列の文字数が増減するため、利用者に対してより自然な操作感を与えることができる。即ち、ウェアラブル装置1は、第1身体動作を検出すると、2種の文字種の内の相対的に大きな一方(かな文字での表記)から相対的に小さな他方(漢字での表記)へ変更する動作を実行し、第2身体動作を検出すると、2種の文字種の内の相対的に小さな一方から相対的に大きな他方へ変更する動作を実行する構成を有していても良い。なお、ウェアラブル装置1は、文字種変更処理の対象となる文字列が、かな文字と漢字表記の文字との双方を含む場合には、第1身体動作に基づき、文字列中のかな文字を漢字表記へ変更し(元々漢字表記の文字は文字種を変更しない)、第2身体動作に基づき、文字列中の漢字表記の文字をかな表記へ変更(元々かな表記の文字は文字種を変更しない)するようにしても良い。
 図11Cに示す例では、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、漢字表記で表記された日本語の文字列「人参」を英語「carrot」に翻訳する例を示している。なお、ウェアラブル装置1は、上肢の一部と他部とが互いに近づく第1身体動作を検出すると、漢字での表記から、英語での表記に翻訳し、一方で、上肢の一部と他部とが互いに離れる第2身体動作を検出すると、英語での表記から、漢字での表記に翻訳する構成として良い。なお、図11Cの例では、一の単語を翻訳する例を示したが、これに限定されず、複数の単語からなる文章に対して翻訳される処理がウェアラブル装置1によって実行されても良い。
 図11Dに示す例では、ウェアラブル装置1は、先頭の文字が大文字で表記されている文字列「Carrot」に対し、上肢の一部を「C」の上部に、他部を「C」の下部に位置させた状態で、一部と他部とが互いに近づく第1身体動作を検出すると、大文字で表記された「C」を小文字の「c」に変更する例を示している。反対に、ウェアラブル装置1は、文字の全てが小文字で表記された文字列「carrot」に対し、上肢の一部を「c」の上部に、他部を「c」の下部に位置させた状態で、一部と他部とが互いに離れる第2身体動作を検出すると、小文字で表記された「c」を大文字の「C」に変更するようにしても良い。即ち、ウェアラブル装置1は、第1身体動作を検出すると、2種の文字種の内の相対的に大きな一方(大文字)から相対的に小さな他方(小文字)へ変更し、第2身体動作を検出すると、2種の文字種の内の相対的に小さな一方(小文字)から相対的に大きな他方(大文字)へ変更する動作を実行するようにしても良い。
 以上、図11を参照して説明したように、本実施形態に係るウェアラブル装置1において、制御部7は、第1身体動作を検出すると、文字を選択するとともに、該文字に対して、全角/半角変換、又は、かな/漢字変換、又は、他言語への翻訳、又は、大文字/小文字変換を文字種変更処理として実行する。
 以上に、各実施形態を説明してきた。特に、第1例及び第2例においては、ウェアラブル装置1が利用者の第1身体動作を検出すると、文字選択処理によって選択した文字を消去する文字消去処理を実行する例を示した。ここで、第1例、第2例のように、制御部7は、表示部2による検索画面SC1における文字入力領域SC11の表示時に、該表示時以前に入力された文字が表示されると、第1身体動作の検出の有無を監視し、第1身体動作の検出が有ったこと契機に、表示時以前に入力された文字に対する文字消去処理を実行する構成を有していても良いことを述べた。これによれば、ウェアラブル装置1は、利用者の眼前に配置され、文字を表示する表示部2と、現実の空間に在る利用者の上肢を検出する検出部5と、検出部5の検出結果から、上肢の身体動作を検出する制御部7と、を備え、制御部7は、表示部2による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、前記身体動作の内、所定の身体動作が検出されるかを判定し、当該所定の身体動作の検出が有ると判定すると、文字列の表示を消去するものと特徴づけられても良い。このとき、「所定の身体動作」は、上記のような、上肢における一部と他部とが互いに近づく第1身体動作に限られず、例えば、手を開いた状態から閉じた状態へ遷移させる握り動作、又は、上肢の指先を所定方向(例えば、文字列が並ぶ方向)に移動させる動作、又は、上肢の指先を所定方向に移動させた後、当該所定方向とは逆方向に戻す往復動作を所定時間内に所定回数以上繰り返す動作(消しゴムで文字を消すような動作を模した身体動作)等であって良い。
 また、ウェアラブル装置1において、制御部7は、表示部2による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、当該文字列が表示されてから所定時間が経過するまでに、所定の身体動作が検出されるかを判定し、所定時間が経過する前に所定の身体動作の検出が有ると判定すると、文字列の表示を消去するようにしても良い。また、ウェアラブル装置1において、制御部7は、表示部2による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、当該文字列が表示されてから所定時間が経過するまでの間は、手オブジェクトHの位置、即ち現実の空間における上肢の位置に依らず、第1身体動作(上肢の一部と他部とを互いに近づける動作)がなされたことに基づいて、文字列を消去できるようにし、一方で、文字列が表示されてから所定時間が経過した後は、手オブジェクトHが所定の位置に在ることを条件に文字列を指定し、該指定した状態で、第1身体動作(上肢の一部と他部とを互いに近づける動作)がなされなければ文字列を消去するができないようにしても良い。
 以上に、説明してきた実施形態は、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
 以上の各実施形態では、現実の空間における上肢の位置及び上肢の形状に基づく手オブジェクトHを表示領域21に表示し、当該手オブジェクトHの表示態様(表示位置或いは形状)を変更することによって、ウェアラブル装置1に上記に例示した種々の動作を実行させる構成を例示した。例えば、第1例においては、手オブジェクトHの人差し指の指先と表示画像(検索画面SC11)とが重畳することに基づいて当該表示画像が選択される構成を例示した。しかしながらこのような構成に限定されない。例えば、ウェアラブル装置1は、現実の空間における上肢の人差し指の指先が、表示領域21における表示画像と重畳して利用者に視認されると位置に在ると推定した場合に、当該表示画像が選択されたと見なす構成としても良い。この場合、ウェアラブル装置1は、利用者によって表示領域21と重畳して視認される現実の空間の範囲を予め推定しており、従って、その範囲内における人差し指の指先と検出位置に応じて表示領域21の何れの位置と重畳して視認されるかを推定可能としている。
 また、上記の実施形態では、ウェアラブル装置1が、眼鏡形状を有する例を示してきたが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、利用者の頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していても良い。或いは、ウェアラブル装置1は、利用者の顔面のほぼ全体を覆うようなマスクタイプの形状を有していても良い。
 また、上記の実施形態では、ウェアラブル装置1は、表示部2が利用者の左右の目の前に設けられる一対の表示部2a及び表示部2bを有している構成を例示してきたが、これに限定されない。例えば、表示部2は、利用者の左右の目の内の一方の前に設けられる一つの表示部を有している構成であっても良い。
 また、上記の実施形態では、ウェアラブル装置1は、正面部の縁部が、表示部2の表示領域の縁の全周を囲っている構成を例示してきたが、これに限定されない。例えば、ウェアラブル装置1は、表示部2の表示領域の縁の一部のみを囲っている構成であっても良い。
 また、上記の実施形態では、ウェアラブル装置1は、利用者の上肢として手や指を撮像部(或いは検出部)によって検出する構成を示したが、手や指は、手袋やグローブ等が装着されている状態であっても同様にして検出可能である。
 上記の実施形態では、ウェアラブル装置1の構成と動作について説明したが、これに限定されず、各構成要素を備える方法やプログラムとして構成されても良い。例えば、一態様に係る制御方法は、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、頭部に装着可能なウェアラブル装置によって実行される制御方法であって、前記制御部が、前記身体動作として、前記上肢における一部と他部とが互いに近づく第1身体動作を検出するステップと、当該第1身体動作を検出すると、前記文字を選択する文字選択処理を実行するステップと、を含む制御方法として特徴づけられても良い。また、一態様に係るプログラムは、文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、頭部に装着可能なウェアラブル装置において、前記制御部に前記身体動作として、前記上肢における一部と他部とが互いに近づく第1身体動作を検出するステップと、当該第1身体動作を検出すると、前記文字を選択する文字選択処理を実行するステップと、を実行させる制御プログラムとして特徴づけられても良い。
1 ウェアラブル装置
1a 前面部
1b 側面部
1c 側面部
2  表示部
3  撮像部
4  撮像部
5  検出部
6  操作部
7  制御部
8  通信部
9  記憶部

Claims (21)

  1.  文字を表示する表示部と、
     現実の空間に在る利用者の上肢を検出する検出部と、
     前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する制御部と、を備える、頭部に装着可能な
     ウェアラブル装置。
  2.  前記制御部は、前記第1身体動作を検出し、かつ、該第1身体動作によって、前記上肢における前記一部と前記他部との距離が所定長さ以下となったことを検出すると、前記文字選択処理を実行する
     請求項1に記載のウェアラブル装置。
  3.  前記制御部は、前記第1身体動作を検出し、かつ、該第1身体動作における前記一部又は前記他部の移動速度が第1速度以上であることを検出すると、前記文字選択処理を実行する
     請求項1又は2に記載のウェアラブル装置。
  4.  前記制御部は、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と、が交わる角度を算出し、該角度が第1角度以下である場合に、前記文字選択処理を実行する
     請求項1から3の何れか一項に記載のウェアラブル装置。
  5.  前記制御部は、前記上肢における前記一部と前記他部とが互いに近づく方向と、前記文字の入力方向と垂直な方向、が交わる角度を算出し、該角度が第2角度以下である場合に、前記文字選択処理を実行する
     請求項1から3の何れか一項に記載のウェアラブル装置。
  6.  前記表示部は、文字列を表示し、
     前記制御部は、前記第1身体動作を検出すると、前記文字列における、該第1身体動作が検出される直前の前記一部の位置と前記他部の位置とによって規定される数の文字に対して前記文字選択処理を実行する
     請求項1から4の何れか一項に記載のウェアラブル装置。
  7.  前記表示部は、複数の行で構成される文字列を表示し、
     前記制御部は、前記第1身体動作を検出すると、前記文字列における、該第1身体動作が検出される直前の前記一部の位置と前記他部の位置とによって規定される行数の前記文字列に対して前記文字選択処理を実行する
     請求項1から3の何れか一項に記載のウェアラブル装置。
  8.  前記制御部は、前記第1身体動作を検出すると、前記文字選択処理によって選択した文字を消去する文字消去処理を実行する
     請求項1から7の何れか一項に記載のウェアラブル装置。
  9.  前記制御部は、前記表示部による文字入力画面の表示時に、該表示時以前に入力された文字が表示されると、前記第1身体動作の検出の有無を監視し、前記第1身体動作の検出が有ったこと契機に、前記表示時以前に入力された文字に対する前記文字消去処理を実行する
     請求項8に記載のウェアラブル装置。
  10.  前記文字消去処理の実行後に、前記上肢における前記一部と前記他部とが互いに離れる第2身体動作を検出すると、前記消去した文字を再入力する
     請求項8又は9に記載のウェアラブル装置。
  11.  前記制御部は、前記第1身体動作を検出すると、前記文字選択処理によって選択した文字をコピーする複製処理を実行する
     請求項1から7の何れか一項に記載のウェアラブル装置。
  12.  前記制御部は、前記複製処理の実行後に、前記上肢における前記一部と前記他部とが互いに離れる第2身体動作を検出すると、前記コピーした文字を前記表示部にペーストする貼付処理を実行する
     請求項11に記載のウェアラブル装置。
  13.  前記制御部は、前記第1身体動作を検出すると、前記文字を選択するとともに、該文字の文字種を変更する文字種変更処理を実行する
     請求項1から7の何れか一項に記載のウェアラブル装置。
  14.  前記制御部は、前記第1身体動作を検出すると、前記文字を選択するとともに、該文字に対して、全角/半角変換、又は、かな/漢字変換、又は、他言語への翻訳、又は、大文字/小文字変換を前記文字種変更処理として実行する
     請求項13に記載のウェアラブル装置。
  15.  文字を表示する表示部と、
     現実の空間に在る利用者の上肢を検出する検出部と、
     前記検出部の検出結果から、前記上肢における一部と他部との距離の変化を伴う身体動作を検出すると、前記文字の文字種を変更する文字種変更処理を実行する制御部と、を備える、頭部に装着可能な
     ウェアラブル装置。
  16.  前記文字種変更処理は、所定の2種の文字種の内、一方から他方へ変更する処理であり、
     前記制御部は、前記上肢における前記一部と前記他部との距離が小さくなる第1身体動作を検出すると、前記一方から前記他方へ変更し、
     前記上肢における前記一部と前記他部との距離が大きくなる第2身体動作を検出すると、前記他方から前記一方へ変更する
     請求項15に記載のウェアラブル装置。
  17.  前記2種の文字種は、互いに所定の大小関係を有する文字種であり、
     前記第1身体動作を検出すると、前記2種の文字種の内の相対的に大きな一方から相対的に小さな他方へ変更し、
     前記第2身体動作を検出すると、前記2種の文字種の内の相対的に小さな一方から相対的に大きな他方へ変更する
     請求項16に記載のウェアラブル装置。
  18.  利用者の眼前に配置され、文字を表示する表示部と、
     現実の空間に在る利用者の上肢を検出する検出部と、
     前記検出部の検出結果から、前記上肢の身体動作を検出する制御部と、を備える、利用者の頭部に装着可能なウェアラブル装置であって、
     前記制御部は、前記表示部による文字入力画面の表示時に、該表示時以前に入力された文字列が表示されると、前記身体動作の内、所定の身体動作が検出されるかを判定し、当該所定の身体動作の検出が有ると判定すると、前記文字列の表示を消去する
     ウェアラブル装置。
  19.  複数の文字からなる文字列を表示する表示部と、
     現実の空間に在る利用者の上肢を検出する検出部と、
     前記文字列の内、前記検出部によって検出される前記上肢の一部の位置と他部の位置とによって規定される範囲に含まれる第1文字列を選択する文字選択処理を実行する制御部と、を備える頭部に装着可能なウェアラブル装置であって、
     前記制御部は、文字選択処理の実行中に、前記一部と前記他部との間の離間距離が略同一に維持された状態で、前記上肢の所定の身体動作を検出したことに基づいて、前記第1文字列に対して所定の処理を実行する
     ウェアラブル装置。
  20.  文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置によって実行される制御方法であって、
     前記制御部は、前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、前記文字を選択する文字選択処理を実行する
     制御方法。
  21.  文字を表示する表示部と、現実の空間に在る利用者の上肢を検出する検出部と、制御部と、を備える頭部に装着可能なウェアラブル装置において、
     前記制御部が前記検出部の検出結果から、前記上肢における一部と他部とが互いに近づく第1身体動作を検出すると、当該制御部に、前記文字を選択する文字選択処理を実行させる
     制御プログラム。
PCT/JP2016/071767 2015-07-29 2016-07-25 ウェアラブル装置、制御方法及び制御プログラム WO2017018388A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017530864A JP6595597B2 (ja) 2015-07-29 2016-07-25 ウェアラブル装置、制御方法及び制御プログラム
US15/748,121 US10551932B2 (en) 2015-07-29 2016-07-25 Wearable device, control method, and control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-149243 2015-07-29
JP2015149243 2015-07-29

Publications (1)

Publication Number Publication Date
WO2017018388A1 true WO2017018388A1 (ja) 2017-02-02

Family

ID=57884403

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/071767 WO2017018388A1 (ja) 2015-07-29 2016-07-25 ウェアラブル装置、制御方法及び制御プログラム

Country Status (3)

Country Link
US (1) US10551932B2 (ja)
JP (1) JP6595597B2 (ja)
WO (1) WO2017018388A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111471A1 (ja) * 2017-12-08 2019-06-13 ソニー株式会社 情報処理装置及びその制御方法、並びに記録媒体
JP2020194517A (ja) * 2019-05-21 2020-12-03 雄史 高田 翻訳システムおよび翻訳システムセット
JP2021099857A (ja) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC レーダーシステムを備えるスマートフォン、システムおよび方法
JP7031112B1 (ja) 2020-10-13 2022-03-08 裕行 池田 眼鏡型端末
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022051971A (ja) * 2019-02-05 2022-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
EP4031956A1 (en) * 2019-09-20 2022-07-27 InterDigital CE Patent Holdings, SAS Device and method for hand-based user interaction in vr and ar environments
US11429879B2 (en) * 2020-05-12 2022-08-30 Ubs Business Solutions Ag Methods and systems for identifying dynamic thematic relationships as a function of time

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JP2002304256A (ja) * 2001-04-06 2002-10-18 Sony Corp 情報処理装置
WO2011118096A1 (ja) * 2010-03-23 2011-09-29 シャープ株式会社 情報表示装置及び文書データ編集方法
JP2012098844A (ja) * 2010-10-29 2012-05-24 Canon Marketing Japan Inc 情報処理装置、情報処理方法、およびそのプログラム
JP2012248067A (ja) * 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
JP2013218521A (ja) * 2012-04-09 2013-10-24 Kyocera Document Solutions Inc 表示入力装置及びこれを備えた画像形成装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978B2 (ja) * 1986-04-11 1995-01-25 三菱自動車工業株式会社 シリンダブロツクの焼入れ方法およびその装置
EP1932141A4 (en) 2005-09-13 2009-08-19 Spacetime3D Inc SYSTEM AND METHOD FOR FORMING A THREE-DIMENSIONAL USER GRAPHIC INTERFACE
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP2012168932A (ja) 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
WO2012144666A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Display device and control method therof
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US10019144B2 (en) 2013-02-15 2018-07-10 Quick Eye Technologies Inc. Organizer for data that is subject to multiple criteria
WO2014128751A1 (ja) 2013-02-19 2014-08-28 株式会社ブリリアントサービス ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
JP5900393B2 (ja) * 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
US20160109957A1 (en) 2013-05-09 2016-04-21 Sony Computer Entertainment Inc. Information processing apparatus and application execution method
US20160098094A1 (en) * 2014-10-02 2016-04-07 Geegui Corporation User interface enabled by 3d reversals
CN107735750A (zh) * 2015-07-08 2018-02-23 阿尔卑斯电气株式会社 触觉再现装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JP2002304256A (ja) * 2001-04-06 2002-10-18 Sony Corp 情報処理装置
WO2011118096A1 (ja) * 2010-03-23 2011-09-29 シャープ株式会社 情報表示装置及び文書データ編集方法
JP2012098844A (ja) * 2010-10-29 2012-05-24 Canon Marketing Japan Inc 情報処理装置、情報処理方法、およびそのプログラム
JP2012248067A (ja) * 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
JP2013218521A (ja) * 2012-04-09 2013-10-24 Kyocera Document Solutions Inc 表示入力装置及びこれを備えた画像形成装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111471A1 (ja) * 2017-12-08 2019-06-13 ソニー株式会社 情報処理装置及びその制御方法、並びに記録媒体
US11642431B2 (en) 2017-12-08 2023-05-09 Sony Corporation Information processing apparatus, control method of the same, and recording medium
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
JP2021099857A (ja) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC レーダーシステムを備えるスマートフォン、システムおよび方法
JP7296415B2 (ja) 2018-08-24 2023-06-22 グーグル エルエルシー レーダーシステムを備えるスマートフォン、システムおよび方法
JP7340656B2 (ja) 2018-08-24 2023-09-07 グーグル エルエルシー 電子機器およびソフトウェアプログラム
JP2020194517A (ja) * 2019-05-21 2020-12-03 雄史 高田 翻訳システムおよび翻訳システムセット
JP7031112B1 (ja) 2020-10-13 2022-03-08 裕行 池田 眼鏡型端末
JP2022064283A (ja) * 2020-10-13 2022-04-25 裕行 池田 眼鏡型端末
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal

Also Published As

Publication number Publication date
US20180217672A1 (en) 2018-08-02
US10551932B2 (en) 2020-02-04
JPWO2017018388A1 (ja) 2018-04-26
JP6595597B2 (ja) 2019-10-23

Similar Documents

Publication Publication Date Title
JP6595597B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
JP6510648B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
JP6400197B2 (ja) ウェアラブル装置
US10983593B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US10082940B2 (en) Text functions in augmented reality
US9904360B2 (en) Head tracking based gesture control techniques for head mounted displays
US20150378158A1 (en) Gesture registration device, gesture registration program, and gesture registration method
CN110633008B (zh) 用户交互解释器
JP2016118929A (ja) 入力支援方法、入力支援プログラムおよび入力支援装置
CN110968190B (zh) 用于触摸检测的imu
RU118140U1 (ru) Персональный электронный коммуникатор
JP6483514B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
WO2016006070A1 (ja) 携帯情報端末装置及びそれと連携するヘッドマウントディスプレイ
JP6999822B2 (ja) 端末装置および端末装置の制御方法
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법
JP6133673B2 (ja) 電子機器及びシステム
KR20180097031A (ko) 휴대 단말 장치와 프로젝션 장치를 포함하는 증강 현실 시스템
US20220350997A1 (en) Pointer-based content recognition using a head-mounted device
JP2016122295A (ja) 入力方法、入力プログラムおよび入力装置
CN117762243A (zh) 连续手势的运动映射

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16830493

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017530864

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15748121

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16830493

Country of ref document: EP

Kind code of ref document: A1