WO2018116678A1 - 情報処理装置及びその制御方法 - Google Patents

情報処理装置及びその制御方法 Download PDF

Info

Publication number
WO2018116678A1
WO2018116678A1 PCT/JP2017/040237 JP2017040237W WO2018116678A1 WO 2018116678 A1 WO2018116678 A1 WO 2018116678A1 JP 2017040237 W JP2017040237 W JP 2017040237W WO 2018116678 A1 WO2018116678 A1 WO 2018116678A1
Authority
WO
WIPO (PCT)
Prior art keywords
housing
information processing
processing apparatus
user
detection unit
Prior art date
Application number
PCT/JP2017/040237
Other languages
English (en)
French (fr)
Inventor
裕一郎 小山
俊之 関谷
充奨 澤田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/469,406 priority Critical patent/US20210405686A1/en
Priority to EP17885018.6A priority patent/EP3561642A4/en
Publication of WO2018116678A1 publication Critical patent/WO2018116678A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the technology disclosed in this specification relates to an information processing apparatus that executes a response operation to a user's input operation and a control method thereof, and more particularly, to an information processing apparatus that is used by being worn on the body of the user and a control method thereof.
  • wearable devices that are worn and used in various places on the user's body are becoming popular.
  • the wearable device detects biological information, position information, and other user states, performs recording such as imaging or recording of the surroundings of the user, and presents various information to the user by voice or the like.
  • Wearable devices are used in a wide variety of fields, such as the life log field and sports support field.
  • a neckband-type wearable device that is worn on the user's neck in a wearing unit that makes a half turn from the left and right sides of the user's neck to the back side (back side) has been proposed.
  • back side back side
  • This type of wearable device includes an operation unit that allows a user to perform an input operation and allows a touch operation and a slide operation. It is also possible to configure a wearable device capable of voice input using voice recognition. The user can perform various operations such as imaging, recording start / stop, audio playback start / stop, information request / stop presentation, etc. to the wearable device through input operation via the operation unit and voice input. Can give instructions.
  • An object of the technology disclosed in the present specification is to provide an excellent information processing apparatus and a control method thereof that can be used by being worn on the body of a user and that can suitably execute a response operation to a user's input operation. It is in.
  • a housing to be attached to the user A detection unit for detecting an operation on the housing; A control unit for controlling a response operation to the detection result; Is an information processing apparatus.
  • the detection unit is a deformation operation on the housing, an operation of touching the housing, an operation of grasping at least one of the left and right tip portions of the U-shaped housing, an operation of tracing the surface of the housing, An operation for shifting the mounting position of the housing, a rotating operation or a pressing operation for an operation element capable of a rotating operation or a pressing operation disposed at the left and right ends of the U-shaped housing, and a U-shaped shape.
  • One or more of the expansion / contraction operations on the left and right tip portions of the opening of the casing are detected.
  • the second aspect of the technology disclosed in this specification is: A detection step of detecting an operation on the casing of the information processing apparatus worn by the user; A control step of controlling a response operation of the information processing apparatus with respect to the detection result; It is the control method of the information processing apparatus which has.
  • an excellent information processing apparatus that can be used while being worn by a user and that can suitably execute a response operation to an input operation of the user, and a control method therefor are provided. Can do.
  • FIG. 1 is a diagram illustrating an external configuration example of a neckband type information processing apparatus 100.
  • FIG. 2 is a diagram illustrating a configuration example of the distal end portion of the housing 101 of the information processing apparatus 100.
  • FIG. 3 is a diagram illustrating an external configuration example of the neckband type information processing apparatus 300.
  • FIG. 4 is a diagram illustrating an external configuration example of the neckband type information processing apparatus 400.
  • FIG. 5 is a diagram showing a state in which a neckband type casing 501 is attached to the user's neck.
  • FIG. 6 is a diagram illustrating an external configuration example of a neckband type information processing apparatus 600.
  • FIG. 7 is a diagram illustrating an external configuration example of a neckband type information processing apparatus 700.
  • FIG. 1 is a diagram illustrating an external configuration example of a neckband type information processing apparatus 100.
  • FIG. 2 is a diagram illustrating a configuration example of the distal end portion of the housing 101 of the information processing apparatus 100.
  • FIG. 3
  • FIG. 8 is a diagram illustrating an external configuration example of a neckband type information processing apparatus 800.
  • FIG. 9 is a block diagram illustrating an internal configuration example of the neckband type information processing apparatus 100.
  • FIG. 10 is a diagram illustrating an operation in which the user deforms the casing of the information processing apparatus.
  • FIG. 11 is a diagram illustrating an operation in which the user deforms the casing of the information processing apparatus.
  • FIG. 12 is a diagram illustrating an operation in which the user touches the housing of the information processing apparatus.
  • FIG. 13 is a diagram illustrating an operation in which the user touches the housing of the information processing apparatus.
  • FIG. 14 is a diagram illustrating an operation in which the user holds the casing of the information processing apparatus.
  • FIG. 10 is a diagram illustrating an operation in which the user deforms the casing of the information processing apparatus.
  • FIG. 11 is a diagram illustrating an operation in which the user deforms the casing of the information processing apparatus.
  • FIG. 12 is a diagram
  • FIG. 15 is a diagram illustrating an operation in which the user holds the casing of the information processing apparatus.
  • FIG. 16 is a diagram illustrating an operation in which the user traces the surface of the housing of the information processing apparatus.
  • FIG. 17 is a diagram illustrating an operation in which the user traces the surface of the housing of the information processing apparatus.
  • FIG. 18 is a diagram illustrating an operation in which the user shifts the mounting position of the casing of the information processing apparatus.
  • FIG. 19 is a diagram illustrating an operation in which the user shifts the mounting position of the housing of the information processing apparatus.
  • FIG. 20 is a diagram illustrating an operation performed by the user on the operator of the information processing apparatus.
  • FIG. 21 is a diagram illustrating an operation in which the user expands and contracts the distal end portion of the housing of the information processing device.
  • FIG. 22 is a diagram schematically illustrating a relationship between a user input operation and a response operation by the information processing apparatus.
  • FIG. 1 shows an external configuration example of the information processing apparatus 100.
  • the information processing apparatus 100 includes a ring-shaped (in other words, headband or U-shaped) casing 101 that is partially open. As shown in the figure, the information processing apparatus 100 hangs the casing 101 around the user's neck and makes a half turn from the left and right sides of the neck to the back side (back side), and the U-shaped opening portion faces forward,
  • the ring-shaped portion 101 is worn by the user in such a manner that at least a part of the inner surface of the ring-shaped portion is in contact with a part of the user's neck, and is used as a neckband type wearable device.
  • At least a part of the casing 101 (for example, the bottom of the U-shape) ) Is made of an elastic material, and it is preferable that the U-shape is bendable and the width of the opening is extendable.
  • the information processing apparatus 100 can be used in a wide variety of fields such as a life log field and a sports support field as a neckband wearable device, for example.
  • the user can use the information processing apparatus 100 with the housing 101 attached to any part of the body other than the neck.
  • the information processing apparatus 100 in the same manner as a normal information terminal by placing the housing 101 on the user's body, for example, on a desk.
  • the information processing apparatus 100 includes a sound collection unit such as a so-called microphone, and collects sound generated by the user who is wearing it as sound information as acoustic information by the sound collection unit.
  • the sound collection units 111 to 113 may be disposed at a plurality of locations on the housing 101 such as the front end portion of the housing 101 and the vicinity of the left and right of the face of the user wearing the housing 101 on the neck.
  • FIG. 2 shows a configuration example of the front end portion of the housing 101 to which the sound collection unit 111 is attached.
  • the front end portion has a streamlined shape in which the sound collecting unit 111 protrudes toward the front of the user near the mouth of the user wearing the casing 101 on the neck.
  • the sound collection unit 111 is disposed, for example, at the streamline tip so as to face the protruding direction.
  • At least one sound collecting unit 111 is installed at the most distal portion of the U-shaped casing 101 in order to prevent wind noise.
  • an imaging unit is disposed at the other tip of the U-shaped housing 101 (not shown in FIG. 2).
  • This imaging unit is built in the other tip so that the direction of the line of sight is the front of the user wearing the casing 101 on the neck.
  • a pinhole lens (not shown) for the imaging unit is formed in the front surface of the other tip of the housing 101 so that the user who wears the housing 101 and the scenery in front of the user can be viewed. An image can be taken.
  • one or more other imaging units may be further installed in a part other than the tip of the housing 101.
  • the sound collecting units 111 to 113 near the user's mouth and the imaging unit can be configured as devices external to the information processing apparatus 100 that are separated from the housing 101. In the following description, it is assumed that the sound collection units 111 to 113 and the imaging unit are supported by the housing 101.
  • the left and right sound collecting portions 112 and 113 are arranged so as to face the outside of the housing 101 (that is, in the direction opposite to the center of the ring) and in different directions.
  • the sound collection units 112 and 113 are disposed at positions that are substantially symmetrical with respect to the user's neck.
  • the information processing apparatus 100 recognizes the content spoken by the user by analyzing the user's voice (acoustic information) collected by the sound collecting units 111 to 113 based on a voice recognition technique or a natural language processing technique. can do.
  • the information processing apparatus 10 may recognize the instruction content from the user's utterance and execute various processes (applications) according to the recognition result.
  • the information processing apparatus 100 is assumed to be used outdoors as a wearable device. In other words, the information processing apparatus 100 is used in an environment in which various noises such as wind noise and noise associated with vibrations, and rubbing associated with wearing of the apparatus 100 occur at random.
  • a plurality of sound collecting units 111 to 113 are arranged at appropriate locations, and a beam forming process is performed on the sound signals collected by the sound collecting units 111 to 113, so that even in a random noise environment.
  • the user's voice can be extracted with high sensitivity. However, description of the details of the beam forming process is omitted.
  • FIG. 3 shows an external configuration example of another neckband type information processing apparatus 300.
  • the housing 301 of the information processing device 300 has a ring shape (in other words, a headband shape or a U-shape) that is partially opened, like the information processing device 100 illustrated in FIG. 1.
  • the user hangs the casing 301 around the neck and makes a half turn from the left and right sides of the neck to the back side (back side), the U-shaped opening portion faces forward, and the inner surface of the ring-shaped portion of the casing 301
  • the information processing apparatus 300 can be worn in a state where at least a part is in contact with a part of the user's neck.
  • the housing 301 of the information processing apparatus 300 also supports a plurality of sound collection units and one or more imaging units.
  • at least a part of the casing 301 (for example, the bottom of the U-shape) ) Is made of an elastic material, and it is preferable that the U-shape is bendable and the width of the opening is extendable (same as above).
  • a pair of protrusions 302 and 303 are provided in the vicinity of the opening of the housing 301, that is, below the left and right tip portions.
  • the tips of these protrusions 302 and 303 abut on the vicinity of the user's clavicle. Therefore, by setting the protrusions 302 and 303 to appropriate lengths, the angle ⁇ at which the plane formed by the ring of the housing 301 is inclined with respect to the horizontal can be set to a desired value. That is, the protrusions 302 and 303 play a role of adjusting the inclination of the housing 301 when the user is worn on the neck.
  • FIG. 4 shows an external configuration example of still another neckband type information processing apparatus 400.
  • the housing 401 of the information processing device 400 has a ring shape (in other words, a headband shape or a U-shape) that is partially open, as in the information processing device 100 illustrated in FIG. 1.
  • the user hangs the casing 401 around the neck and makes a half turn from the left and right sides of the neck to the back side (back side), the U-shaped opening portion faces forward, and the inner surface of the ring-shaped portion of the casing 401
  • the information processing apparatus 400 can be worn in a state where at least a part is in contact with a part of the user's neck.
  • the casing 401 of the information processing apparatus 400 also supports a plurality of sound collection units and one or more imaging units.
  • at least a part of the casing 401 (for example, the bottom of the U-shape) ) Is made of an elastic material, and it is preferable that the U-shape is bendable and the width of the opening is extendable (same as above).
  • the information processing apparatus 400 is formed with inclination adjusting portions 402 and 403 in the vicinity of the opening of the housing 401, that is, at the left and right tip portions, the width of which increases as it approaches the front.
  • the housing 401 is attached to the user's neck, the lower end edges of the inclination adjusting units 402 and 403 abut on the vicinity of the user's clavicle. Therefore, the angle ⁇ at which the plane formed by the ring of the housing 401 is inclined with respect to the horizontal can be set to a desired value by setting the inclination adjusting units 402 and 403 to appropriate widths.
  • FIG. 5 shows a state in which a neckband type casing 501 is attached to the user's neck.
  • the case 501 assumes the cases 301 and 401 of the information processing apparatuses 300 and 400 described above.
  • a circle formed by the ring of the casing 501 is defined as C
  • the center of the circle C is defined as O
  • the rotation axis of the circle C is defined as S.
  • the rotation axis S is orthogonal to the plane (rotation plane) P formed by the ring of the housing 501.
  • the perpendicular V drawn from the user's mouth to the plane P becomes the ring of the casing 501.
  • FIG. 6 shows an external configuration example of still another neckband type information processing apparatus 600.
  • the housing 601 of the information processing device 600 has a ring shape (in other words, a headband shape or a U-shape) that is partially opened, like the information processing device 100 illustrated in FIG.
  • the user hangs the casing 601 around the neck and makes a half turn from the left and right sides of the neck to the back side (back side), the U-shaped opening portion faces forward, and the inner surface of the ring-shaped portion of the casing 601
  • the information processing apparatus 600 can be worn with at least a portion in contact with a portion of the user's neck.
  • At least a part of the casing 601 (for example, a U-shape) (Bottom part) is made of an elastic material, and it is preferable that the U-shape is bendable and the width of the opening is extendable (same as above).
  • the housing 601 of the information processing apparatus 600 has a substantially L-shaped opening with only the right tip at the bottom. It has a left-right asymmetric shape bent into a letter.
  • the housing 601 of the information processing apparatus 600 includes the L-shaped bent portion, the L-shaped tip portion, the right side of the user's face wearing the housing 601 on the neck, and the left side of the housing 601.
  • sound collection units 611, 612, 613, and 614 such as so-called microphones are provided.
  • the housing 601 of the information processing apparatus 600 also supports one or more image capturing units, and can capture the scenery in front of and around the user wearing the housing 601.
  • FIG. 7 shows an external configuration example of still another neckband type information processing apparatus 700.
  • the housing 701 of the information processing apparatus 700 has a closed ring shape (in other words, an O shape) without an opening.
  • the housing 701 of the information processing apparatus 700 also supports a plurality of sound collection units and one or more imaging units.
  • the housing 701 includes a cutting portion 702 that is at least partially made of a flexible member and has a ring cut at one place. Therefore, the user grasps both the left and right ends of the cutting part 702, widens the cutting part 702, makes a full turn from the left and right sides of the neck to the back side (back side), and wears the casing 701 around the neck. can do.
  • the housing 701 When the mounting operation is completed and the hands are released from the left and right ends of the cutting portion 702, the housing 701 returns to the original closed ring shape. That is, since the housing 701 does not have an opening when the user is worn on the neck, there is no concern that the case 701 may fall off or fall off the neck even if the user moves or exercises during use.
  • FIG. 8 shows an example of the external configuration of still another neckband type information processing apparatus 800.
  • the housing of the information processing apparatus 800 may be either a ring shape with a part opened or a closed ring shape, but has a detachable structure that can be separated into a housing left part 801L and a housing right part 801R. This is different from the information processing apparatus 100 described above. Further, the housing left part 801L and the housing right part 801R may be rotatably connected at at least one of the joints.
  • the user sandwiches his / her neck between the separated case left part 801L and the case right part 801, or opens the case left part 801L and the case right part 801R at the joint, and places his / her neck in the case
  • the case left part 801L and the case right part 801R after being put in the box 801, it can be mounted without difficulty.
  • the user wears the casing 801 so as to wrap around the entire circumference from the left and right sides of the user's neck to the back side (back side), the user can move and exercise during use. There is no worry of falling off the neck or falling.
  • the casings 801L and 801R of the information processing apparatus 800 also support a plurality of sound collection units and one or more imaging units.
  • FIG. 9 shows an internal configuration example of the neckband type information processing apparatus 100. It should be understood that the other information processing apparatuses 300, 400,... Have the same internal configuration.
  • the illustrated information processing apparatus 100 includes a plurality of sound collection units 111 to 113, an imaging unit 120, an audio output unit 130, an operation unit 140, a sensor unit 150, a communication unit 160, and a control unit 170. Yes. Although omitted in FIG. 9, the information processing apparatus 100 may include a large-capacity memory configured by an SSD (Solid State Drive) or the like, or may be externally connected.
  • SSD Solid State Drive
  • Each of the sound collection units 111 to 113 acquires, for example, voice data such as a voice uttered by a user wearing the casing 101 of the information processing apparatus 100 around the neck or a surrounding voice for the beam forming process.
  • Each of the sound collection units 111 to 113 is constituted by a microphone, for example. However, not a directional microphone but a microphone having sensitivity in all directions (or semi-directional) may be used. Having sensitivity in all directions means that there is no insensitive area (orientation) in the polar pattern.
  • Each of the sound collecting units 111 to 113 may include a microphone amplifier circuit that amplifies the obtained audio signal and an A / D converter that converts the sound signal into a digital signal.
  • Each of the sound collection units 111 to 113 outputs the acquired audio data to the control unit 170.
  • the imaging unit 120 photoelectrically converts a lens system including an imaging lens, a diaphragm, a zoom lens, a focus lens, and the like, a drive system that causes the lens system to perform a focus operation and a zoom operation, and imaging light obtained by the lens system.
  • An image sensor that converts and generates an image signal (not shown) is provided.
  • the imaging device is constituted by, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
  • the imaging unit 120 is arranged in a place where the front of the user can be imaged with the casing 101 of the information processing apparatus 100 being attached to the user's neck, and the optical axis of the lens is directed.
  • the imaging unit 120 can capture an image of a speaking partner in front of the user, for example.
  • the imaging unit 120 may be disposed in a place where the face of the user himself / herself can be imaged with the casing 101 of the information processing apparatus 100 attached to the user's neck.
  • the imaging unit 120 may automatically perform an imaging operation in response to the occurrence of an event such as the user starting a conversation with a conversation partner, or starts an imaging operation in response to an instruction input from the user. Or you may make it stop.
  • the imaging unit 120 outputs the digitized image data to the control unit 170.
  • the audio output unit 130 is configured with a speaker or the like. For example, when a user who wears the casing 101 of the information processing apparatus 100 plays back music while jogging, or when the user approaches a POI (Point Of Interest). To play appropriate voice guidance. Further, the audio output unit 130 may be configured by a stereo speaker, for example, and may localize a sound image.
  • the operation unit 140 is operable by a user with a fingertip or the like, and has a function of accepting input from the user.
  • the operation unit 140 includes mechanical controls such as buttons, switches, knobs, and sliders, touch sensors that can perform fingertip operations such as taps, swipes, flicks, pinch-in / pinch-out, and the like.
  • the user can turn on or off the information processing apparatus 100 via the operation unit 140, start or end the imaging by the imaging unit 120, start or end the audio input from the sound collection units 111 to 113, and from the audio output unit 130.
  • the start or end of the output of the voice information can be instructed.
  • the user does not use the operation unit 140 (or in combination with the operation unit 140), and the sound collection units 111 to 113, the imaging unit 120, or the sensor unit 15 are used.
  • the sound collection units 111 to 113, the imaging unit 120, or the sensor unit 15 are used.
  • the sensor unit 150 has various sensing functions for detecting the state of the user wearing the casing 101 of the information processing apparatus 100 on the neck and the state of the user's surroundings.
  • the sensor unit 150 includes, for example, at least one sensor module among an acceleration sensor, a speed sensor, a gyro sensor, a geomagnetic sensor, a GPS (Global Positioning System) sensor, a vibration sensor, and the like. Further, it is not necessary for all the sensor modules constituting the sensor unit 150 to be housed in the housing 101, and at least a part thereof is a device externally connected to the information processing apparatus 100 separated from the housing 101. It is also possible to configure.
  • a wristband type pulse sensor worn by the user on the wrist or a vibration sensor built in a smartphone carried by the user may be used as a part of the sensor unit 150.
  • the sensor unit 150 may include a biological sensor that acquires user biological information such as body temperature, pulse, myoelectric potential, and sweating.
  • the communication unit 160 is a communication module in which the information processing apparatus 100 transmits / receives data to / from an external device or an input / output interface module that inputs / outputs data to / from the external device via a wired or wireless connection. is there.
  • the communication unit 160 is, for example, a wired LAN (Local Area Network) such as Ethernet (registered trademark), a wireless LAN such as Wi-Fi (registered trademark) (Wireless Fidelity), Bluetooth (registered trademark) communication, NFC (Nera Field Communication). ), Data communication is performed with an external device directly or via an access point on a network according to infrared communication such as IrDA or other communication methods.
  • the communication unit 160 for example, in accordance with an instruction from the control unit 170, voices collected by the sound collection units 111 to 113 (or voice data after further beamform processing by the control unit 170, or voice recognition results), imaging Image data such as a still image or a moving image captured by the unit 120 is wirelessly transmitted to an external device.
  • the communication unit 160 may be equipped with an interface and a receptacle for data transfer such as USB (Universal Serial Bus), HDMI (registered trademark) (High Definition Multimedia Interface), and MHL (Mobile High-definition Link). Using such an interface, the communication unit 160 outputs the sound collected by the sound collection units 111 to 113 and the image data captured by the imaging unit 120 to an external device in order to reproduce and output the data. .
  • data such as an image can be taken into the information processing apparatus 100 from an external device using such an interface.
  • the communication unit 160 may be equipped with a call function by implementing a cellular communication protocol such as LTE-A (LTE-Advanced).
  • LTE-A LTE-Advanced
  • the user can make a call using the communication unit 160 when the user is wearing the casing 101 of the information processing apparatus 100 on his / her body such as a neck and is active outdoors.
  • the communication unit 160 When at least a part of the function as the control unit 170 described later is included in another device (none of which is shown) such as a smartphone carried by the user or a server on the cloud, the communication unit 160 The data acquired by at least one of 111 to 113, the imaging unit 120, the operation unit 140, or the sensor unit 150 is transmitted to the other devices functioning as the control unit 170 by the communication unit 160, and the transmission data Processing results (for example, results of beam forming processing and voice recognition processing) may be received from another device such as a server. Further, the communication unit 160 may output audio data received from these other devices from the audio output unit 150.
  • another device such as a smartphone carried by the user or a server on the cloud
  • the communication unit 160 The data acquired by at least one of 111 to 113, the imaging unit 120, the operation unit 140, or the sensor unit 150 is transmitted to the other devices functioning as the control unit 170 by the communication unit 160, and the transmission data Processing results (for example, results of beam forming processing and voice recognition processing) may
  • the imaging unit 120, the operation unit 140, or the sensor unit 150 utilizes a function equipped with an external device (such as a smartphone carried by the user).
  • the communication unit 160 may receive data acquired by the external device and output the data to the control unit 170.
  • the control unit 170 is configured by an integrated circuit such as SoC (System-on-a-Chip). On the SoC as the control unit 170, a main controller, a main memory, a ROM (Read Only Memory), a video digital signal processing unit (Video DSP), an audio digital signal processing unit, an audio digital signal A plurality of circuit modules for realizing each function such as a processing unit (Audio DSP) is mounted.
  • SoC System-on-a-Chip
  • a main controller a main memory
  • a ROM Read Only Memory
  • Video DSP video digital signal processing unit
  • audio digital signal processing unit an audio digital signal
  • a plurality of circuit modules for realizing each function such as a processing unit (Audio DSP) is mounted.
  • the function of the communication unit 160 described above can also be implemented on the same SoC as the control unit 170.
  • the control unit 170 controls the overall operation in the information processing apparatus 100 according to various programs. Specifically, the control unit 170 performs beam forming processing of the audio signals collected by the plurality of sound collecting units 111 to 113, voice recognition processing based on the audio data after the beam forming processing, and imaging operation of the imaging unit 120. Device operation according to control (start or end of imaging, development processing, etc.), external output of acquired data (audio data, image data, sensor data, etc.) from the communication unit 160, and instructions input by the user via the operation unit 140 The control of etc. is implemented.
  • control unit 170 may be included in other devices (not shown) such as a smartphone carried by the user or a server on the cloud.
  • the control unit 170 disposed on another apparatus communicates with the information processing apparatus 100 main body side via the communication unit 160 and is based on the received data from the information processing apparatus 100 main body. Then, various processes such as a beam forming process and a voice recognition process are executed, and the processing results are transmitted to the communication unit 160.
  • the neckband type information processing apparatus 100 is used by a user wearing around the neck in various fields such as a life log field and a sports support field.
  • the information processing apparatus 100 provides services such as playing and outputting music while the user is jogging and playing appropriate voice guidance when the user reaches the POI.
  • the information processing apparatus 100 is equipped with the operation unit 140 including buttons, switches, knobs, switches, touch sensors, and the like. Start, stop, pause, etc. can be instructed.
  • the casing 101 of the information processing apparatus 100 worn on the neck by the user is hidden by the user's face (jaw), and it is difficult to visually confirm the position and operation content of the operation unit 140. .
  • casing 101 is narrow and the operation part 140 also becomes a small component, it is difficult to operate correctly in the condition which cannot be visually observed.
  • the configuration and arrangement of the operation unit 140 are not standard, such as a QWERTY keyboard, and it is difficult for the user to touch and operate the operation unit 140 accurately.
  • buttons, switches, knobs, switches, and touch sensors can be arranged on the surface of the casing 101 having a small area, and all user input operations on the information processing apparatus 100 are accepted only by the operation unit 140. It can be said that it is difficult.
  • the voice input performance deteriorates in an environment where the noise level is large such as outdoors, which may cause stress on the user. Concerned.
  • the sound collection units 111 to 113 and the image pickup unit 120 are arranged on the outer surface of the housing 101, and thus an action such as touching with a hand or a finger occurs even when the user cannot see. It is easy to make a predetermined event. Further, even if it is difficult to find the location of the operation unit 140 on the housing 101, it is easy to touch or apply force to the housing 101 itself. Then, a response operation on the information processing apparatus 100 side that can be easily recalled (without prior knowledge) by the user to actions that the user has caused on the sound collection units 111 to 113, the imaging unit 120, and the housing 101 The user can easily and intuitively perform an input operation on the information processing apparatus 100.
  • the user inserts the left hand (or right hand) thumb and index finger inside the left and right tip portions of the U-shaped casing 101 to open the thumb and the stab.
  • the fingertip operation pinch out
  • the gap at the opening of the U-shaped tip of the housing 101 is widened, and a deformation operation that opens the housing 101 can be performed.
  • the opening and closing operation of the U-shape of the housing 101 as shown in FIGS. 10 and 11 is easy. become.
  • the U-shaped opening portion faces forward. Therefore, the user touches the U-shaped opening with either one of the left and right hands and performs an opening / closing operation on the housing 101 as shown in FIGS. be able to.
  • a method for detecting that the user has performed the opening / closing operation of the U-shaped casing 101 a method for measuring the distance of the gap between the opening portions, a method for measuring the movement of at least one of the left and right end portions, For example, a method of measuring a strain amount of a bendable portion of the housing 101 can be used. It is assumed that the sensor unit 150 includes a sensor that detects that an opening / closing operation has been performed by any method.
  • a method for measuring the distance between the gaps in the opening a method in which a distance measuring sensor is disposed near the tip of the U-shaped housing 101 can be considered.
  • a distance measuring sensor using infrared rays an infrared light emitting element is provided at one of the left and right ends of the opening and an infrared light receiving element is provided at the other end.
  • the gap distance of the opening portion hardly changes except when the user performs a deformation operation. Therefore, according to the method of measuring the distance of the gap between the opening portions, it is possible to stably detect that the user has performed the deformation operation of the housing 101.
  • the distance measuring sensor that measures the distance of the gap in the opening has little purpose other than detecting the deformation operation of the casing 101 by the user, and is difficult to be diverted to other uses. Further, in order to measure the distance with a certain degree of accuracy, the place where the distance measuring sensor is installed is limited, so that it is difficult to design the housing 101 having a small accommodation space. Moreover, there is a concern that the addition of a distance measuring sensor having no other use may cause an increase in manufacturing cost due to an increase in parts cost.
  • an acceleration sensor is provided at at least one of the left and right distal portions, and accompanying the opening operation shown in FIGS. 10 and 10 by the user.
  • a method for measuring the movement of the tip can be considered.
  • the characteristic of the change in the sensor value of the acceleration sensor that occurs when the user performs an operation to deform the casing 101 is recorded in advance in association with the identification information of the deformation operation.
  • the sensor value as recorded is obtained from the output of the acceleration sensor while the user is using the information processing apparatus 100, the user has performed the deformation operation of the housing 101.
  • the acceleration sensor may be combined with a speed sensor, a gyro sensor, a vibration sensor, or the like to measure the movement of the tip with higher accuracy.
  • the acceleration at the tip of the housing 101 continues to fluctuate as long as the user moves. For this reason, in the method of measuring the movement of the distal end portion of the U-shaped casing 101 with an acceleration sensor, an algorithm that does not erroneously detect an acceleration change other than when a desired deformation operation is performed is required.
  • the change in acceleration when the user performs a deformation operation of the housing 101 and the change in acceleration generated in other cases may be identified by machine learning to prevent erroneous detection. For example, deep learning may be adopted to improve detection accuracy.
  • the information processing apparatus 100 is equipped with an acceleration sensor as a part of the sensor unit 150 for the purpose of detecting the state of the user wearing the casing 101 around the neck and the surrounding state of the user (described above). Therefore, since the acceleration sensor can be used in combination with other applications, the method for measuring the movement of the tip of the U-shaped casing 101 does not increase the cost and the number of parts does not increase. Therefore, the design burden is small.
  • the strain gauge is a device that measures, for example, a change in electrical resistance due to deformation of a metal resistor by a bridge circuit, and can convert the measured change in electrical resistance into a strain amount.
  • the characteristic of the change in the electrical resistance of the strain gauge that occurs when the user performs an operation to deform the housing 101 is recorded in advance in association with the identification information of the deformation operation. And, while the user is using the information processing apparatus 100, when the change in electrical resistance as recorded is obtained from the strain gauge, the user has performed the deformation operation of the housing 101. Can be detected.
  • the casing 101 does not bend except when the user performs a deformation operation (or does not bend in a place where a strain gauge is provided).
  • the method of measuring the amount of distortion it is possible to stably detect that the user has performed the deformation operation of the housing 101.
  • the strain gauge that measures the strain amount of the bendable portion of the housing 101 has almost no purpose other than detecting the deformation operation of the housing 101 by the user, and it is difficult to divert it to other uses, and the component cost There is a concern that the increase in manufacturing cost will increase the production cost.
  • the strain gauge is used by being attached to the surface of a bendable portion of the housing 101, for example, but there is a concern that the wiring design for drawing the signal line from the strain gauge into the housing 101 becomes complicated. Is done.
  • the method for measuring the distance of the gap between the opening portions of the housing is based on the premise that the housing is a structure having an opening portion such as a U shape. Therefore, this operation method cannot be applied to the information processing apparatuses 700 and 800 including the casing having a closed shape such as an O-shape and having no opening as shown in FIGS.
  • the method of measuring the movement of the tip and the method of measuring the amount of distortion of the bendable portion of the housing are deformable so that at least a portion can be bent regardless of the shape of the housing, such as U-shape or O-shape. Any housing structure that can be operated is applicable.
  • the U-shaped opening is facing forward. Therefore, the user can touch or grasp either the left or right tip of the U-shaped opening as shown in FIG. 12 or FIG. Can be performed.
  • the user can touch or cover not only the front end portion of the housing 101 but also an arbitrary position on the outer periphery with a fingertip.
  • a proximity sensor or a touch sensor is disposed at a place where a user is expected to perform an operation such as a tip portion of the housing 101.
  • the characteristic of the sensor value change of the proximity sensor or the touch sensor that occurs when the user performs an operation of touching the corresponding part of the housing 101 is recorded in advance in association with the identification information of the touch operation.
  • the sensor value as recorded is obtained from the output of the proximity sensor or the touch sensor while the user is using the information processing apparatus 100, the user moves the corresponding part of the housing 101. It is possible to detect that a touch operation has been performed.
  • the user can use the plurality of sound collecting units 111 to 113 formed of a microphone or the like and the imaging unit 120 to make the casing 101 by the user.
  • the sound collecting units 111 to 113 are arranged at a plurality of locations including the front end portion of the U-shaped casing 101. Also, when the user touches the surface of the housing 101 with a fingertip as shown in FIG. 12 or FIG. 13 and the microphone hole of any of the sound collection units 111 to 113 is closed, the sound is heard. It can be detected as a pressure change. Further, the user can simultaneously touch the places of the two or more sound collecting units 111 to 113 to cause the sound pressure change at the two or more places at the same time.
  • the characteristics of the sound pressure change that occurs in each of the sound collection units 111 to 113 due to the microphone holes being blocked are described. For example, it is recorded in advance in association with operation identification information.
  • the sound pressure change as recorded is obtained from any of the sound collection units 111 to 113 while the user is using the information processing apparatus 100, the user It is possible to detect that the touch operation has been performed at the corresponding place.
  • the sound collecting units 111 to 113 are arranged at a plurality of locations on the housing 101 as in the present embodiment, for each location where a change in sound pressure (that is, touched) is detected.
  • the sound pressure of the sound collecting units 111 to 113 may change due to an event other than the sound collecting units 111 to 113 being closed by the user's hand. For this reason, in the method of detecting that the user touches the surface of the casing 101 using the sound collecting units 111 to 113, an algorithm that does not erroneously detect a change in sound pressure other than when the user touches is required. . For example, a change in sound pressure of the sound collection units 111 to 113 when the user performs an operation of touching the housing 101 and a change in sound pressure of the sound collection units 111 to 113 generated by other operations are identified by machine learning. Thus, erroneous detection may be prevented. For example, deep learning may be adopted to improve detection accuracy.
  • the imaging unit 120 is disposed at the front end portion of the U-shaped casing 101 in order to make it easy to capture a subject in front.
  • other imaging units may be installed in addition to the tip.
  • the user can simultaneously touch the locations of two or more imaging units and cause a luminance change at two or more locations at the same time.
  • the characteristics of the luminance change generated in the imaging unit 120 are recorded in advance in association with the operation identification information such as the touched location. Keep it. Then, when the brightness change as recorded is obtained from the imaging unit 120 while the user is using the information processing apparatus 100, the user touches the corresponding place on the housing 101. It is possible to detect what has been done. Further, in the configuration in which the imaging units are arranged at a plurality of locations on the housing 101, only the response operation on the information processing device 100 side is defined for each location where a luminance change (that is, touched) is detected. Alternatively, a response operation can be defined for each combination of two or more places where the luminance change has occurred. In other words, the response operation on the information processing apparatus 100 side is also defined for the combination of the location where the luminance change is detected by the imaging unit 120 and the location where the sound pressure change is detected by the sound collection units 111 to 113. You can also.
  • the brightness change of the imaging unit 120 may also occur due to an event other than the touch of the imaging unit 120 with the user's hand. For this reason, in the method of detecting that the user touches the surface of the housing 101 using the imaging unit 120, an algorithm that does not erroneously detect a luminance change other than when the user touches is necessary.
  • the luminance change of the imaging unit 120 when the user performs an operation of touching the housing 101 and the luminance change of the imaging unit 120 that occurs in other cases are identified by machine learning to prevent erroneous detection. It may be. For example, deep learning may be adopted to improve detection accuracy.
  • the plurality of sound collection units 111 to 113 and the imaging unit 120 are components that the neckband type information processing apparatus 100 includes as a standard.
  • the sound collecting units 111 to 113 have an original use of acquiring sound data such as a sound uttered by a user or surrounding sound for beam forming processing.
  • the imaging unit 120 has an original purpose of imaging a user's talking partner and surrounding scenery. That is, according to the method of detecting the operation of touching the casing 101 by the user by utilizing the sound collecting units 111 to 113 and the imaging unit 120 having the original purpose, the cost is not increased and the number of components is not increased. Therefore, the design burden is small.
  • the U-shaped opening is facing forward. Accordingly, the user does not hesitate even in a short time, and performs an operation of grasping the left and / or right end of the U-shaped opening as shown in FIGS. 14 and 15 with both left and right hands. be able to. Then, the response operation on the information processing apparatus 100 side is defined for each of the operation of grasping only the left end portion of the housing 101, the operation of grasping only the right end portion, and the operation of simultaneously grasping the left and right end portions. Can do.
  • a pressure-sensitive sensor may be provided at the left and right tip portions of the housing 101 so as to detect that the sensor is grasped based on a change in pressure.
  • the characteristics of the change in the sensor value of the pressure sensor that occurs when the user performs an operation of grasping the left and right tips of the housing 101 are recorded in advance.
  • the sensor value as recorded is obtained from the output of the pressure sensor while the user is using the information processing apparatus 100, the user holds the tip of the housing 101.
  • the use of the structure of the housing 401 whose width near the opening, that is, each of the left and right tip portions increases as it approaches the front, is a side surface on which the user performs the tracing operation.
  • the area is increased and the operability is improved.
  • the U-shaped opening is facing forward. Therefore, the user can perform an operation of tracing either the left or right side or both sides of the housing 101 with the left and right fingertips as shown in FIGS. 16 and 17 without hesitation. .
  • a response operation on the information processing apparatus 400 side can be defined for each operation.
  • capacitive touch sensors can be provided on the left and right side surfaces of the housing 101 to detect the contact position and movement of the fingertip.
  • the characteristic of the change in the sensor value of the touch sensor that occurs when the user performs an operation of tracing the left and right sides of the housing 101 is recorded in advance in association with the operation surface and the operation direction.
  • the sensor value as recorded is obtained from the output of the touch sensor while the user is using the information processing apparatus 100, the user traces either the left or right side of the housing 101. It is possible to detect that an operation has been performed.
  • the user In addition to the case where the user performs an operation of tracing the side surface of the housing 101, the user touches the side surface of the housing 101 with a fingertip, or a part of the user's body other than the fingertip touches the touch sensor. react. For this reason, an algorithm that does not erroneously detect the output of the touch sensor other than the operation that the user traces with the fingertip is required.
  • the output of the touch sensor when the user performs an operation of tracing the side surface of the housing 101 may be machine learned to prevent erroneous detection. For example, deep learning may be adopted to improve detection accuracy.
  • the opening portion of the U-shaped casing 101 indicates the front direction of the user. It is suitable.
  • the user rotates the casing 101 around his / her neck and shifts the opening so that the opening is directed rightward from the front as shown in FIG. 18, or conversely as shown in FIG. It can be shifted so that the part is directed leftward from the front.
  • the U-shaped opening is facing forward. Therefore, the user can rotate the casing 101 around his / her neck as shown in FIGS. 18 and 19 without any hesitation even in a short time, and the opening is either left or right than the front.
  • the operation of shifting the mounting position so as to face the direction can be performed.
  • an acceleration sensor provided as the sensor unit 150 by the information processing apparatus 100 is used to measure the acceleration generated when the user shifts the mounting position of the housing 101.
  • the characteristic of the change in the sensor value of the acceleration sensor that occurs when the user performs the operation of shifting the mounting position by rotating the casing 101 around his / her neck to the left and right respectively, and the identification information of the operation to shift to the left and right respectively Record in advance in association with each other.
  • the sensor value as recorded is obtained from the output of the acceleration sensor while the user is using the information processing apparatus 100, the user sets the mounting position of the housing 101 to the left or right. It is possible to detect that the operation of shifting to is performed.
  • the acceleration sensor may be combined with a speed sensor, a gyro sensor, a vibration sensor, or the like to measure the movement of the tip with higher accuracy.
  • the acceleration at the tip of the housing 101 continues to fluctuate as long as the user moves.
  • an algorithm is required so as not to erroneously detect an acceleration change other than when the operation for shifting the mounting position is performed.
  • the change in acceleration when the user performs an operation of shifting the mounting position of the housing 101 and the change in acceleration generated in other cases may be identified by machine learning to prevent erroneous detection.
  • deep learning may be adopted to improve detection accuracy.
  • the information processing apparatus 100 is equipped with an acceleration sensor as a part of the sensor unit 150 for the purpose of detecting the state of the user wearing the casing 101 around the neck and the surrounding state of the user (described above). Therefore, since the acceleration sensor can be used in combination with other applications, the method for measuring the movement of the tip of the U-shaped casing 101 does not increase the cost and the number of parts does not increase. Therefore, the design burden is small.
  • a response operation on the information processing apparatus 300 side can be defined for each operation.
  • Expansion / contraction operation with respect to the front end of the housing As shown in FIG. 21, the user has the following three ways by making the left and right front ends of the U-shaped housing 101 extendable / contractible. Is possible. A response operation on the information processing apparatus 100 side can be defined for each operation.
  • an expansion and contraction operation as shown in FIG. 21 is possible.
  • a telescopic operation as shown in FIG. 21 can be performed by incorporating a mechanical slide mechanism at the tip.
  • the U-shaped opening is facing forward. Therefore, the user can perform the expansion / contraction operation of either the left or right or both of the tip portions as shown in FIG.
  • the information processing apparatus 100 can perform any one of the input operations (1) to (7), and can use any two or more of the input operations (1) to (7) in combination. Please understand.
  • the information processing apparatus 100 returns a response operation to the user when the above-described input operation is performed from the user (see FIG. 22).
  • a response operation example on the information processing apparatus 100 side that can be defined for each of the input operations (1) to (7) will be described.
  • (11) Response operation in response to a deformation operation of the housing
  • the information processing apparatus 100 may shift to the lock state or the sleep state as a response operation to the deformation operation.
  • the predetermined number of times mentioned here may be one time or a plurality of times. However, in order to prevent malfunction due to an event other than an operation on the housing 101 of the user, it may be set a plurality of times.
  • the index of the list in the application being executed by the information processing apparatus 100 may be changed by the number of times of deformation operation.
  • the information processing apparatus 100 fast-forwards or rewinds the number of songs corresponding to the number of times of the deformation operation during music playback.
  • the playback position of the content is jumped forward or backward by the number of chapters corresponding to the number of times of the deformation operation.
  • the deformation operation for closing the opening of the housing 101 as shown in FIG. 10 and the deformation operation for opening the opening of the housing 101 as shown in FIG. 11 are easily understood by the user as a paired operation. Therefore, a response operation of the information processing apparatus 100 that is paired with each other may be assigned to each of the deformation operation for closing and opening the housing 101 as shown below.
  • -Music playback is started by a closing deformation operation, and music playback is stopped by an opening deformation operation.
  • the volume is increased by the closing deformation operation, and the sound volume is decreased by the opening deformation operation.
  • the processing apparatus 100 shifts the system to a sleep state or a shutdown state as a response operation. Or conversely, the information processing apparatus 100 may cancel the sleep state or restart the system as a response operation to the operation of touching the tip of the housing 101.
  • -Music playback is started by touching the left tip, and music playback is stopped by touching the right tip.
  • an operation of touching only the left tip of the opening of the housing 101 for a certain period of time (the right tip is released). May be started as the response operation of the information processing apparatus 100.
  • the imaging unit 120 performs an imaging operation, an operation of touching the right tip of the opening of the housing 101 is performed, or the field of view of the imaging unit 120 is blocked by a user's hand or other foreign matter, resulting in a decrease in luminance.
  • the imaging operation of the imaging unit 120 may be stopped or temporarily stopped as a response operation of the information processing apparatus 100.
  • the operation for the user to grip the tip of the housing 101 is easy to perform. Therefore, an urgent processing command for an application being executed may be assigned as a response operation of the information processing apparatus 100 with respect to an operation in which the user grips the tip of the housing 101.
  • the music playback is stopped, paused, or muted as a response operation. Therefore, when a user gets into a vehicle or an elevator of public transportation, it is not necessary to feel embarrassed by the sound of reproduction. Further, even if the user suddenly talks to a person, the user can respond to the conversation without being disturbed by the reproduced sound.
  • the playback volume is increased. In response to an operation of tracing only the right side surface of the casing 101 forward or backward, the playback volume is decreased. In response to the operation of tracing the left side of the casing 101 forward and the operation of tracing the right side rearward at the same time, it rewinds to the previous song. In response to the operation of tracing the left side of the casing 101 backward and the operation of tracing the right side forward at the same time, fast forward to the next song. In response to the simultaneous operation of tracing the left and right side surfaces of the housing 101 at the same time, the system is shifted to the sleep state or the shutdown state. In response to the simultaneous operation of tracing the left and right side surfaces of the housing 101 at the same time, the system is shifted to the sleep state or the shutdown state.
  • the operation of tracing the side surface of the housing 101 can be easily detected simply by disposing a capacitive touch sensor on each of the left and right side surfaces of the housing 101, and can be used as a user input method. Further, the user can perform an input operation only by a simple operation of “tracing” the side surface, and can perform eight types of input operations by combining the left and right side surfaces of the housing 101 and the direction of tracing. Therefore, it is possible to set a rule that the user likes, and to perform personal authentication, credit settlement, etc. by the operation. As shown in FIG.
  • the use of the structure of the housing 401 whose width near the opening, that is, each of the left and right tip portions increases as it approaches the front, is a side surface on which the user performs the tracing operation. The area is increased and the operability is improved.
  • the music playback is stopped or paused as a response operation. Or mute. Therefore, when a user gets into a vehicle or an elevator of public transportation, it is not necessary to feel embarrassed by the sound of reproduction. Further, even if the user suddenly talks to a person, the user can respond to the conversation without being disturbed by the reproduced sound.
  • a response process such as ending the call or placing the call on hold may be executed.
  • the user rotates the projection 302 or 303 disposed below the left and right tip portions of the casing 301 of the information processing apparatus 300. And a pressing operation can be performed.
  • the information processing apparatus 300 performs the gain adjustment of the speaker as a response operation with respect to any one of the protrusions 302 or 303 and performs the gain adjustment of the microphone as a response operation with respect to the other rotation operation. May be.
  • the information processing apparatus 300 fast-forwards or rewinds the music according to the rotation direction as a response operation to the rotation operation of any one of the protrusions 302 and 303 during music reproduction, and also according to the rotation amount. You may make it fast forward or rewind the number of music.
  • the user can perform various input operations by utilizing the shape of the casing 101 of the neckband type information processing apparatus 100. . As a result, the user can select the most comfortable UI according to the situation.
  • the technology disclosed in this specification has been described mainly with respect to an embodiment in which the technology disclosed in this specification is applied to a neckband type wearable device.
  • the gist of the technology disclosed in this specification is not limited thereto. Absent.
  • the technology disclosed in this specification can be similarly applied to various types of wearable devices other than the neckband.
  • the technology disclosed in this specification can also be applied to various types of information processing apparatuses that are not wearable devices, such as tablet terminals and notebook computers.
  • an information processing apparatus to which the technology disclosed in the present specification is applied is used by being worn so that a user hangs around the neck, for example, as a neckband type wearable device.
  • the information processing apparatus can be used by being attached to any part of the user's body other than the neck, or can be used without being worn on the user's body, for example, on a desk.
  • an information processing apparatus to which the technology disclosed in this specification is applied can be used as a neckband type wearable device in various fields such as a life log field and a sports support field.
  • the information processing apparatus can provide various services to the user such as, for example, the user who wears the device plays music during jogging, captures a moving image or a still image, or plays an appropriate voice guidance.
  • a housing mounted on the user A detection unit for detecting an operation on the housing; A control unit for controlling a response operation to the detection result;
  • An information processing apparatus comprising: (2) The detection unit detects a deformation operation on the casing. The information processing apparatus according to (1) above.
  • the housing has a U-shape, The detection unit detects at least one of an operation of closing or opening the U-shaped opening of the housing; The information processing apparatus according to any one of (1) or (2) above.
  • the detection unit uses at least one of a distance measurement of a gap of the U-shaped opening of the housing, a movement measurement of at least one tip of the opening, and a strain measurement of the housing.
  • the detection unit detects an operation of touching the housing.
  • the information processing apparatus according to any one of (1) to (4).
  • the housing has a U-shape, The detection unit detects an operation of touching at least one of the left and right sides of the U-shaped opening of the housing; The information processing apparatus according to (5) above.
  • the detection unit detects an operation of touching the housing based on a detection result of a proximity sensor or a touch sensor.
  • the information processing apparatus according to any of (5) or (6) above.
  • the detection unit detects an operation of touching a place where the sound collection unit is arranged in response to a sound pressure change in the sound collection unit, or the image pickup unit is arranged in response to a luminance change in the image pickup unit. Detecting an operation that touches the specified location, The information processing apparatus according to any of (5) or (6) above.
  • the housing has a U-shape, The detection unit detects an operation of gripping at least one of the left and right end portions of the U-shaped opening of the housing; The information processing apparatus according to any one of (1) to (8).
  • the detection unit detects an operation of grasping a place where the sound collection unit is arranged in response to a sound pressure change in the sound collection unit, or the image pickup unit is arranged in response to a luminance change in the image pickup unit. Detecting an operation to hold a designated place, The information processing apparatus according to (9) above. (11) The detection unit detects an operation of touching the housing based on a detection result of the pressure sensor. The information processing apparatus according to (9) above. (12) The detection unit detects an operation of tracing the surface of the housing. The information processing apparatus according to any one of (1) to (11) above.
  • the housing has a U-shape
  • the detection unit detects whether the tracing operation has been performed on the left or right surface of the U-shaped opening of the housing and the traced direction.
  • the detection unit detects an operation of tracing the surface of the housing based on a detection result of the touch sensor.
  • the detection unit detects an operation of shifting the mounting position of the housing.
  • (16) The detection unit detects an operation of shifting the mounting position of the housing and a shifted direction based on a detection result of the acceleration sensor.
  • the housing has a U-shape, An operator that can perform at least one of a rotating operation and a pressing operation at the left and right ends of the U-shaped opening of the housing; The detection unit detects a rotation operation or a pressing operation on the left and right operators.
  • the information processing apparatus according to any one of (1) to (16) above.
  • the housing has a U-shape, The detection unit detects an expansion / contraction operation with respect to left and right tip portions of the U-shaped opening of the housing.
  • the information processing apparatus according to any one of (1) to (17).
  • the detection unit records in advance characteristics of changes in detection values when an operation is performed on the housing, and records the characteristics while the user is using the information processing apparatus. In response to obtaining the detected value, an operation on the housing is detected.
  • the information processing apparatus according to any one of (1) to (18). (20) a detection step of detecting an operation on the casing of the information processing apparatus worn by the user; A control step of controlling a response operation of the information processing apparatus with respect to the detection result; Control method of information processing apparatus having
  • DESCRIPTION OF SYMBOLS 100 ... Information processing apparatus 101 ... Housing

Abstract

ユーザが身体に装着して用いられ、ユーザの入力操作に対する応答動作を実行する情報処理装置及びその制御方法を提供する。 情報処理装置は、ユーザに装着される筐体と、前記筐体に対する操作を検出する検出部と、前記検出結果に対する応答動作を制御する制御部を備える。前記検出部は、前記筐体に対する変形操作、前記筐体を触る操作、U字の形状をした前記筐体の左右の少なくとも一方の先端部分を握る操作、前記筐体の表面をなぞる操作、前記筐体の装着位置をずらす操作などのうち1つ又は2以上を検出する。

Description

情報処理装置及びその制御方法
 本明細書で開示する技術は、ユーザの入力操作に対する応答動作を実行する情報処理装置及びその制御方法に係り、特に、ユーザが身体に装着して用いられる情報処理装置及びその制御方法に関する。
 近年、ユーザの身体のさまざまな場所に装着して用いられるウェアラブル・デバイスが普及しつつある。ウェアラブル・デバイスは、生体情報や位置情報、その他のユーザの状態を検出したり、ユーザの周囲の様子を撮像又は録音などの記録を行なったり、音声などで多様な情報をユーザに提示したりする用途がある。ウェアラブル・デバイスは、例えば、ライフログの分野やスポーツ支援の分野など、多岐にわたる分野で利用されている。
 例えば、ユーザの首の左右両側から後ろ側(背中側)にかけて半周回するような装着ユニットで、ユーザの首に掛けるようにして装着される、ネックバンド型のウェアラブル・デバイスについて提案がなされている(例えば、特許文献1を参照のこと)。
 この種のウェアラブル・デバイスは、ユーザが入力操作を行なうための、タッチ操作やスライド操作が可能な操作部を備えている。また、音声認識を利用して音声入力が可能なウェアラブル・デバイスを構成することも可能である。ユーザは、操作部を介した入力操作や音声入力を介して、ウェアラブル・デバイスに対して、撮像、録画の開始又は停止、音声再生の開始又は停止、情報の提示要求又は提示の停止など、さまざまな指示を行なうことができる。
WO2016/063587
 本明細書で開示する技術の目的は、ユーザが身体に装着して用いられ、ユーザの入力操作に対する応答動作を好適に実行することができる、優れた情報処理装置及びその制御方法を提供することにある。
 本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
 ユーザに装着される筐体と、
 前記筐体に対する操作を検出する検出部と、
 前記検出結果に対する応答動作を制御する制御部と、
を具備する情報処理装置である。
 前記検出部は、前記筐体に対する変形操作、前記筐体を触る操作、U字の形状をした前記筐体の左右の少なくとも一方の先端部分を握る操作、前記筐体の表面をなぞる操作、前記筐体の装着位置をずらす操作、U字の形状をした前記筐体の左右の先端部に配設された回転操作又は押下操作が可能な操作子に対する回転操作又は押下操作、U字の形状をした前記筐体の開口部の左右の先端部に対する伸縮操作のうち1つ又は2以上を検出する。
 また、本明細書で開示する技術の第2の側面は、
 ユーザが装着した情報処理装置の筐体に対する操作を検出する検出ステップと、
 前記検出結果に対する前記情報処理装置の応答動作を制御する制御ステップと、
を有する情報処理装置の制御方法である。
 本明細書で開示する技術によれば、ユーザが身体に装着して用いられ、ユーザの入力操作に対する応答動作を好適に実行することができる、優れた情報処理装置及びその制御方法を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ネックバンド型の情報処理装置100の外観構成例を示した図である。 図2は、情報処理装置100の筐体101の先端部分の構成例を示した図である。 図3は、ネックバンド型の情報処理装置300の外観構成例を示した図である。 図4は、ネックバンド型の情報処理装置400の外観構成例を示した図である。 図5は、ネックバンド型の筐体501をユーザの首に装着した様子を示した図である。 図6は、ネックバンド型の情報処理装置600の外観構成例を示した図である。 図7は、ネックバンド型の情報処理装置700の外観構成例を示した図である。 図8は、ネックバンド型の情報処理装置800の外観構成例を示した図である。 図9は、ネックバンド型の情報処理装置100の内部構成例を示したブロック図である。 図10は、ユーザが情報処理装置の筐体を変形する操作を例示した図である。 図11は、ユーザが情報処理装置の筐体を変形する操作を例示した図である。 図12は、ユーザが情報処理装置の筐体を触れる操作を例示した図である。 図13は、ユーザが情報処理装置の筐体を触れる操作を例示した図である。 図14は、ユーザが情報処理装置の筐体を握る操作を例示した図である。 図15は、ユーザが情報処理装置の筐体を握る操作を例示した図である。 図16は、ユーザが情報処理装置の筐体の表面をなぞる操作を例示した図である。 図17は、ユーザが情報処理装置の筐体の表面をなぞる操作を例示した図である。 図18は、ユーザが情報処理装置の筐体の装着位置をずらす操作を例示した図である。 図19は、ユーザが情報処理装置の筐体の装着位置をずらす操作を例示した図である。 図20は、ユーザの情報処理装置の操作子に対する操作を例示した図である。 図21は、ユーザが情報処理装置の筐体の先端部分を伸縮させる操作を例示した図である。 図22は、ユーザの入力操作と情報処理装置による応答動作の関係を模式的に示した図である。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
 図1には、情報処理装置100の外観構成例を示している。情報処理装置100は、一部が開口したリング状(言い換えれば、カチューシャ状、又はU字の形状)の筐体101を有している。情報処理装置100は、図示のように筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させ、U字の開口部分が前方を向くとともに、筐体101のリング状の部分の内面の少なくとも一部がユーザの首の一部と接触するような状態でユーザに装着され、ネックバンド型のウェアラブル・デバイスとして利用に供される。ユーザが筐体101を自分の首に装着する際の操作性や、筐体101の変形によるユーザ入力の操作性(後述)を考慮すると、筐体101の少なくとも一部(例えば、U字の底部)は弾性のある素材で構成され、U字の形状が屈曲可能で開口部の幅が伸縮自在であることが好ましい。情報処理装置100は、例えばネックバンド型のウェアラブル・デバイスとして、ライフログの分野やスポーツ支援の分野など、多岐にわたる分野で利用することができる。
 勿論、ユーザは、首以外の身体のいずれかの部位に筐体101を取り付けて情報処理装置100を使用することも可能である。あるいは、筐体101をユーザの身体に着用せず、例えば机上に置いて、通常の情報端末と同様の方法で情報処理装置100を使用することも可能である。
 情報処理装置100は、いわゆるマイクロフォンのような集音部を備え、着用中のユーザが発する音声を目的音として集音部で音響情報として集音する。例えば、筐体101の先端部分や、筐体101を首に装着したユーザの顔の左右付近など、筐体101上の複数の箇所に集音部111~113を配設してもよい。
 図2には、集音部111が取り付けられた、筐体101の先端部分の構成例を示している。先端部分は、筐体101を首に装着したユーザの口元の近傍に、ユーザの前方に向かって集音部111が突出するような流線形の形状をなしている。集音部111は、例えばこの流線形の先端に、突出する方向を向くように配設されている。少なくとも1つの集音部111は、風切り音の対策のため、U字の筐体101の最先端部に設置される。
 また、図示を省略するが、U字形状をなす筐体101の(図2に示していない)他方の先端には、撮像部が配設されている。この撮像部は、筐体101を首に装着したユーザの前方を視線方向とするように、他方の先端に内蔵されている。また、筐体101の他方の先端の前面には、撮像部のためのピンホール・レンズ(図示しない)が穿設されており、筐体101を着用したユーザの話し相手やユーザの前方の風景を撮像することができる。撮像部をU字の筐体101の最先端部に設置することにより、正面の被写体を撮像し易くなる。また、筐体101の先端以外の部位に1以上の他の撮像部をさらに設置してもよい。
 なお、ユーザの口元近傍の集音部111~113と撮像部の少なくとも一部を、筐体101からは分離した、情報処理装置100の外付けするデバイスとして構成することも可能であるが、以下では、集音部111~113と撮像部は筐体101に支持されているものとして説明する。
 再び図1を参照すると、左右の集音部112及び113は、筐体101の外側に向けて(すなわち、リングの中心とは逆方向に)、且つ、互いに異なる方向を向くように、配設されている。より具体的には、筐体101がユーザの首に装着されたときに、集音部112及び113は、ユーザの首を基準として、ほぼ左右対称となる位置に配設されている。
 情報処理装置100は、これら集音部111~113により集音されたユーザの音声(音響情報)を、音声認識技術や自然言語処理技術に基づく解析を施すことで、ユーザが発話した内容を認識することができる。例えば、情報処理装置10は、ユーザの発話から指示内容を認識して、その認識結果に応じて各種の処理(アプリケーション)を実行するようにしてもよい。
 なお、情報処理装置100は、ウェアラブル・デバイスとして、ユーザが携行して屋外で使用されることが想定される。言い換えれば、情報処理装置100は、風切り音や振動に伴う雑音、当該装置100の装着に伴う衣擦れなど、さまざまな雑音がランダムに発生する環境で使用される。複数の集音部111~113をそれぞれ適切な場所に配設するとともに、各集音部111~113で集音された音声信号に対してビームフォーミング処理を施すことにより、ランダムな雑音環境下でもユーザの音声を高感度で抽出することができる。但し、ビームフォーミング処理の詳細については説明を省略する。
 図3には、他のネックバンド型の情報処理装置300の外観構成例を示している。情報処理装置300の筐体301は、図1に示した情報処理装置100と同様に、一部が開口したリング状(言い換えれば、カチューシャ状、又はU字の形状)を有している。ユーザは、筐体301を首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させ、U字の開口部分が前方を向くとともに、筐体301のリング状の部分の内面の少なくとも一部がユーザの首の一部と接触するような状態で情報処理装置300を装着することができる。また、図示を省略するが、情報処理装置300の筐体301も複数の集音部や1以上の撮像部を支持しているものとする。ユーザが筐体301を自分の首に装着する際の操作性や、筐体301の変形によるユーザ入力の操作性(後述)を考慮すると、筐体301の少なくとも一部(例えば、U字の底部)は弾性のある素材で構成され、U字の形状が屈曲可能で開口部の幅が伸縮自在であることが好ましい(同上)。
 情報処理装置300は、筐体301の開口部の近傍、すなわち左右の各先端部分の下方には、一対の突起部302及び303が凸設されている。筐体301がユーザの首に装着された際、これらの突起部302及び303の先端がユーザの鎖骨の近傍に当接する。したがって、各突起部302及び303を適切な長さに設定することで、筐体301のリングのなす平面が水平に対して傾斜する角度θを所望の値に設定することができる。すなわち、突起部302及び303は、ユーザが首に装着した状態での筐体301の傾斜を調整する役割を果たす。
 また、図4には、さらに他のネックバンド型の情報処理装置400の外観構成例を示している。情報処理装置400の筐体401は、図1に示した情報処理装置100と同様に、一部が開口したリング状(言い換えれば、カチューシャ状、又はU字の形状)を有している。ユーザは、筐体401を首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させ、U字の開口部分が前方を向くとともに、筐体401のリング状の部分の内面の少なくとも一部がユーザの首の一部と接触するような状態で情報処理装置400を装着することができる。また、図示を省略するが、情報処理装置400の筐体401も複数の集音部や1以上の撮像部を支持しているものとする。ユーザが筐体401を自分の首に装着する際の操作性や、筐体401の変形によるユーザ入力の操作性(後述)を考慮すると、筐体401の少なくとも一部(例えば、U字の底部)は弾性のある素材で構成され、U字の形状が屈曲可能で開口部の幅が伸縮自在であることが好ましい(同上)。
 情報処理装置400は、筐体401の開口部の近傍、すなわち左右の各先端部分は、前方に近づくに従って幅が大きくなっていく傾斜調整部402及び403が形設されている。筐体401がユーザの首に装着された際、これらの傾斜調整部402及び403の下端縁がユーザの鎖骨の近傍に当接する。したがって、各傾斜調整部402及び403を適切な幅に設定することで、筐体401のリングのなす平面が水平に対して傾斜する角度θを所望の値に設定することができる。
 ネックバンド型の筐体上に配設された複数の集音部で集音された音声信号に対してビームフォーミング処理(前述)を施す際、音源となるユーザの口元の位置を高精度に推定することができれば、処理を最適化することが可能となる。
 図5には、ネックバンド型の筐体501をユーザの首に装着した様子を示している。但し、筐体501は、上述した情報処理装置300、400の各筐体301、401を想定している。同図において、筐体501のリングが作る円をCとし、円Cの中心をO、円Cの回転軸をSと定義する。幾何学上、回転軸Sは、筐体501のリングのなす平面(回転面)Pと直交することが分かる。
 筐体501のリングのなす平面Pが水平に対して傾斜する角度θと、筐体501の直径dを適切に選ぶことで、ユーザの口元から平面Pに下した垂線Vは筐体501のリングが作る円Cと交わるようになる。このような幾何学的関係を形成することで、筐体501の装着ずれの程度に拘わらず、垂線Vと円Cが交わるので、ビームフォーミング処理の精度を高く保つことができる。したがって、図3並びに図4に示した情報処理装置300、400は、適切な角度θでユーザの首に装着することができる筐体301、401の構成例と言うこともできる。
 図6には、さらに他のネックバンド型の情報処理装置600の外観構成例を示している。情報処理装置600の筐体601は、図1に示した情報処理装置100と同様に、一部が開口したリング状(言い換えれば、カチューシャ状、又はU字の形状)を有している。ユーザは、筐体601を首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させ、U字の開口部分が前方を向くとともに、筐体601のリング状の部分の内面の少なくとも一部がユーザの首の一部と接触するような状態で情報処理装置600を装着することができる。また、ユーザが筐体601を自分の首に装着する際の操作性や、筐体601の変形によるユーザ入力の操作性(後述)を考慮すると、筐体601の少なくとも一部(例えば、U字の底部)は弾性のある素材で構成され、U字の形状が屈曲可能で開口部の幅が伸縮自在であることが好ましい(同上)。
 但し、図1、図3、図4に示した情報処理装置100、300、400とは相違し、情報処理装置600の筐体601は、開口部のうち右先端のみが下方に向かって略L字に屈曲した左右非対称な形状を有している。
 情報処理装置600の筐体601には、上記L字の屈曲部分、上記L字の先端部分、筐体601を首に装着したユーザの顔の右付近、並びに、筐体601の左側の先端付近に、いわゆるマイクロフォンのような集音部611、612、613、614がそれぞれ配設されている。また、図示を省略するが、情報処理装置600の筐体601も、1以上の撮像部を支持しており、筐体601を着用したユーザの前方や周囲の風景を撮像することができる。
 ここで、複数の集音部611、612、613、614の配置について付言すると、以下の(A)~(D)のような効果がある(例えば、特許文献1を参照のこと)。
(A)目的音が発されるユーザの口の方向に対して集音部611、612が直線的に配置されているので、ビームフォーミング処理によりユーザの音声が効率的に強調することができる。
(B)抑圧したい雑音が到来する地面の方向に対して集音部611、612が直線的に配置されているので、ビームフォーミング処理により雑音を効率的に抑圧することができる。
(C)複数の集音部611~614が立体的に配置されるので、ビームフォーミング処理によりあらゆる方向から到来する雑音を抑圧することができる。
(D)集音部611が筐体601を着用したユーザの口に最も近くに配置されるので、ユーザが発する音声を他の雑音と比較して大きな音量で取得することができる。
 また、図7には、さらに他のネックバンド型の情報処理装置700の外観構成例を示している。情報処理装置700の筐体701は、上述した情報処理装置100などとは相違し、開口のない、閉じたリング状(言い換えれば、O字の形状)を有している。また、図示を省略するが、情報処理装置700の筐体701も複数の集音部や1以上の撮像部を支持しているものとする。但し、筐体701は、少なくとも一部が可撓性のある部材で構成され、また一箇所でリングが切断された切断部702を有している。したがって、ユーザは、切断部702の左右両端を掴んで切断部702を広げ、首の左右両側から後ろ側(背中側)にかけて全周回するようにして、筐体701を首に掛けるようにして装着することができる。装着作業が終了して切断部702の左右両端から手を放すと、筐体701は元の閉じたリング状に戻る。すなわち、筐体701は、ユーザが首に装着した状態では開口を持たないので、ユーザが使用中に移動したり運動したりしても首から脱落したり落下したりする心配がない。
 また、図8には、さらに他のネックバンド型の情報処理装置800の外観構成例を示している。情報処理装置800の筐体は、一部が開口したリング形状又は閉じたリング形状のいずれでもよいが、筐体左部801Lと筐体右部801Rに分離可能な着脱式の構造となっている点で、上述した情報処理装置100などとは相違する。また、筐体左部801Lと筐体右部801Rは、少なくとも一方の接合部で回動可能に連結されていてもよい。ユーザは、分離した状態の筐体左部801Lと筐体右部801で自分の首を挟み込み、あるいは、接合部で筐体左部801Lと筐体右部801Rを開いて自分の首を筐体801の中に入れた後に筐体左部801Lと筐体右部801Rを閉じることで、無理なく装着することができる。また、ユーザの首の左右両側から後ろ側(背中側)にかけて全周回するようにして、筐体801を首に掛けるようにして装着するので、ユーザが使用中に移動したり運動したりしても首から脱落したり落下したりする心配がない。また、図示を省略するが、情報処理装置800の筐体801L、801Rも複数の集音部や1以上の撮像部を支持しているものとする。
 図9には、ネックバンド型の情報処理装置100の内部構成例を示している。他の情報処理装置300、400…なども同様の内部構成を備えているものと理解されたい。
 図示の情報処理装置100は、複数の集音部111~113と、撮像部120と、音声出力部130と、操作部140と、センサ部150と、通信部160と、制御部170を備えている。なお、図9では省略したが、情報処理装置100は、SSD(Solid State Drive)などで構成される大容量メモリを内蔵又は外付け接続していてもよい。
 各集音部111~113は、例えば、情報処理装置100の筐体101を首に装着したユーザが発する音声、又は周囲の音声などの音声データを、ビームフォーミング処理のためにそれぞれ取得する。各集音部111~113は、例えばマイクロフォンにより構成される。但し、有指向性のマイクロフォンではなく、全方位に感度を有する(若しくは、半指向性の)マイクロフォンであってもよい。全方位に感度を有するとは、ポーラパターンにおいて不感性の領域(方位)がないことを意味する。各集音部111~113は、得られた音声信号を増幅処理するマイクアンプ回路や、ディジタル信号に変換するA/D変換器を備えていてもよい。各集音部111~113は、取得した音声データを、制御部170に出力する。
 撮像部120は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズなどにより構成されるレンズ系と、レンズ系に対してフォーカス動作やズーム動作を行なわせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する撮像素子など(いずれも図示しない)を備えている。撮像素子は、例えば、CCD(Charge Coupled Device)センサアレイ、あるいはCMOS(Complementary Metal Oxide Semiconductor)センサアレイで構成される。撮像部120は、情報処理装置100の筐体101がユーザの首に装着された状態で、ユーザの前方を撮像可能な場所に配置されるとともにレンズの光軸が向けられる。この場合、撮像部120は、例えばユーザの正面にいる話し相手を撮像することができる。あるいは、撮像部120は、情報処理装置100の筐体101がユーザの首に装着された状態で、ユーザ本人の顔を撮像可能な場所に配設されてもよい。撮像部120は、ユーザが話し相手と会話を始めたことなどのイベントの発生に応じて自動的に撮像動作を行なうようにしてもよいし、あるいはユーザから入力された指示に応じて撮像動作を開始又は停止するようにしてもよい。撮像部120は、ディジタル化された画像データを制御部170に出力する。
 音声出力部130は、スピーカなどで構成され、例えば情報処理装置100の筐体101を首に装着したユーザがジョギング中に音楽を再生出力したり、ユーザがPOI(Point Of Interest)に差し掛かったときに適当な音声ガイダンスを流したりする。また、音声出力部130は、例えばステレオ式のスピーカで構成され、音像を定位するようにしてもよい。
 操作部140は、ユーザが指先などで操作可能で、ユーザからの入力を受け付ける機能を備えている。操作部140は、ボタンやスイッチ、つまみ、スライダなど機械式の操作子や、タップやスワイプ、フリック、ピンチイン・ピンチアウトといった指先操作が可能なタッチセンサなどで構成される。ユーザは、操作部140を介して、情報処理装置100の電源オン又はオフ、撮像部120による撮像の開始又は終了、集音部111~113からの音声入力の開始又は終了、音声出力部130からの音声情報の出力の開始又は終了などを指示することができる。なお、本明細書で開示する技術では、ユーザが、操作部140を用いることなく(若しくは、操作部140と併用して)、集音部111~113や撮像部120、あるいはセンサ部15などに対して所定の事象を発生させることで簡易に又は直感的に入力操作を行なうことを可能とするが、この点の詳細については後述に譲る。
 センサ部150は、情報処理装置100の筐体101を首に装着したユーザの状態やそのユーザの周囲の状態を検出するさまざまなセンシング機能を備えている。センサ部150は、例えば、加速度センサ、速度センサ、ジャイロセンサ、地磁気センサ、GPS(Grobal Posotioning System)センサ、振動センサなどのうち少なくとも1つのセンサ・モジュールを備えている。また、センサ部150を構成する各センサ・モジュールは、すべて筐体101内に収容される必要はなく、少なくとも一部を筐体101からは分離した情報処理装置100に外付け接続されるデバイスとして構成することも可能である。例えば、ユーザが手首に装着したリストバンド型の脈拍センサや、ユーザが携行するスマートフォンに内蔵された振動センサが、センサ部150の一部として活用される場合もある。なお、センサ部150は、体温や脈拍、筋電位、発汗といったユーザの生体情報を取得する生体センサを備えていてもよい。
 通信部160は、有線又は無線を介して、情報処理装置100が外部装置との間でデータの送受信を行なう通信モジュールや、外部装置との間でデータの入出力を行なう入出力インターフェース・モジュールである。通信部160は、例えばイーサネット(登録商標)のような有線LAN(Local Area Network)、Wi-Fi(登録商標)(Wireless Fidelity)などの無線LAN、Bluetooth(登録商標)通信、NFC(Nera Field Communication)、IrDAなどの赤外線通信、又はその他の通信方式に従って、外部装置と直接又はネットワーク上のアクセスポイント経由でデータ通信を行なう。通信部160は、例えば制御部170からの指示に従って、集音部111~113で集音した音声(若しくは、制御部170でさらにビームフォーム処理した後の音声データ、あるいは音声認識結果)や、撮像部120で撮像した静止画又は動画などの画像データを、外部装置に無線送信する。
 また、通信部160は、USB(Universal Serial Bus)やHDMI(登録商標)(High Definition Multimedia Interface)、MHL(Mobile High-definition Link)といった、データ転送用のインターフェース及びレセプタクルを装備してもよい。通信部160は、このようなインターフェースを用いて、集音部111~113で集音した音声や撮像部120で撮像した画像データを再生出力したり保存したりするために、外部装置に出力する。勿論、このようなインターフェースを用いて外部装置から画像などのデータを情報処理装置100内に取り込むこともできる。
 また、通信部160は、LTE-A(LTE-Advanced)などのセルラー通信プロトコルを実装して、通話機能を備えていてもよい。ユーザは、情報処理装置100の筐体101を首など自分の身体に装着して屋外で活動している際に、通信部160を用いて通話することが可能である。
 なお、後述する制御部170としての機能の少なくとも一部が、ユーザが携行するスマートフォン、あるいはクラウド上のサーバなど他の装置(いずれも図示しない)に含まれる場合、通信部160は、集音部111~113、撮像部120、操作部140、又はセンサ部150のうち少なくとも1つによって取得されたデータを、通信部160がこれら制御部170として機能する他の装置に送信するとともに、送信データに対する処理結果(例えば、ビームフォーミング処理や音声認識処理の結果)をサーバなど他の装置から受信するようにしてもよい。また、通信部160は、これら他の装置から受信した音声データを音声出力部150から音声出力するようにしてもよい。
 また、集音部111~113、撮像部120、操作部140、又はセンサ部150のうち少なくとも1つが外部装置(ユーザが携行するスマートフォンなど)で装備される機能を活用したものである場合には、通信部160は、外部装置で取得されたデータを受信して制御部170に出力するようにしてもよい。
 制御部170は、例えばSoC(System-on-a-Chip)のような集積回路で構成される。制御部170としてのSoC上には、メイン・コントローラやメイン・メモリ、ROM(Read Only Memory)、映像用のディジタル信号処理部(Video DSP)、音響用のディジタル信号処理部、音響用のディジタル信号処理部(Audio DSP)などの各機能を実現するための複数の回路モジュールが実装されている。また、上述した通信部160の機能も、制御部170と同じSoC上に実装することもできる。
 制御部170(具体的には、SoC上に実装されたメイン・コントローラ)は、各種のプログラムに従って、情報処理装置100内の動作全般を制御する。具体的には、制御部170は、複数の集音部111~113で集音された音声信号のビームフォーミング処理や、ビームフォーミング処理後の音声データに基づく音声認識処理、撮像部120の撮像動作制御(撮像開始又は終了、現像処理など)、取得したデータ(音声データや画像データ、センサ・データなど)の通信部160からの外部出力、操作部140を介してユーザが入力した指示に従う装置動作の制御などを実施する。
 なお、制御部170としての機能の少なくとも一部が、ユーザが携行するスマートフォン、あるいはクラウド上のサーバなど他の装置(いずれも図示しない)に含まれる場合もある。このような場合、他の装置上に配設された制御部170は、情報処理装置100本体側との間で通信部160を介して通信して、情報処理装置100本体からの受信データに基づいてビームフォーミング処理や音声認識処理などの各種処理を実行し、その処理結果を通信部160に送信する。
 ネックバンド型の情報処理装置100は、ライフログの分野やスポーツ支援の分野など、多岐にわたる分野で、ユーザが首に装着して利用される。情報処理装置100は、例えばユーザがジョギング中に音楽を再生出力する、ユーザがPOIに差し掛かったときに適当な音声ガイダンスを流す、といったサービスを提供する。また、上述したように、情報処理装置100は、ボタンやスイッチ、つまみ、スイッチ、タッチセンサなどからなる操作部140を装備しており、基本的にはユーザは操作部140を介してサービスの実施開始や停止、一時停止などを指示することができる。
 しかしながら、ユーザが首に装着した情報処理装置100の筐体101の大部分は、ユーザの顔(顎)で隠れてしまい、操作部140の位置や操作内容を目視で確認することは困難である。また、筐体101の表面積は狭く、操作部140も小さな部品となってしまうため、目視できない状況で正確に操作するのは難しい。勿論、操作部140の構成や配置は、QWERTY配列形式のキーボードのような標準的なものではなく、ユーザは、とっさに操作部140に正確に触れて操作することは難しい。また、面積が狭い筐体101の表面にボタンやスイッチ、つまみ、スイッチ、タッチセンサといった部品を配置できる場所には限りがあり、情報処理装置100に対するすべてのユーザ入力操作を操作部140だけで受け付けるのは難しい、と言うこともできる。
 例えば、ユーザが、ネックバンド型の情報処理装置100を首に装着して音楽を視聴しながら行動しているとき、公共交通機関の車両やエレベータに乗り込む際や、急に人に話し掛けられたとき、操作部140を正確に操ることができないために大音量のまま入っていくと、恥ずかしい思いをすることもある。そもそも、筐体101の表面積が狭いことから、操作性のよい形態で操作部140の複数の部品(ボタンやスイッチ、タッチセンサなど)を筐体101の表面に配設することが設計上難しい場合もある。
 付言すれば、情報処理装置100が音声UI(User Interface)機能を搭載するケースにおいては、屋外など騒音レベルが大きな環境下では、音声入力の性能が劣化してしまい、ユーザにストレスを与えることが懸念される。
 そこで、本明細書では、ネックバンド型の情報処理装置100の筐体101の形状を活用してユーザが入力操作を行なうことを可能とする技術について、以下で提案する。後述するように、ユーザは、操作部140を用いることなく、集音部111~113や撮像部120、センサ部15、あるいは筐体101などに対して所定の事象を発生させることで簡易に又は直感的に入力操作を行なうことができる。
 図1などからも分かるように、集音部111~113や撮像部120は、筐体101の外側面に配設されているので、ユーザは目視できない状態でも手や指で触れるといったアクションを起こすことは容易であり、とっさに所定の事象を発生させることができる。また、筐体101上の操作部140の場所をとっさに見つけることは困難であっても、筐体101自体を触ったり力を掛けたりすることは容易である。そして、ユーザが集音部111~113や撮像部120、筐体101に対して起こしたアクションに対して、ユーザにとって(予備知識がなくても)容易に想起できる情報処理装置100側の応答動作を定義することで、ユーザは簡易且つ直感的に情報処理装置100に対する入力操作を行なうことが可能になる。
 例えば、公共交通機関の車両やエレベータに乗り込む際や、急に人に話し掛けられたとき、ユーザはとっさの判断で音楽再生を停止又は一時再生することができれば、恥ずかしい思いをしなくて済む。
 以下では、ネックバンド型の情報処理装置100の、集音部111~113や撮像部120、筐体101に対する操作例と、各操作例における操作量の測定方法などについて説明する。なお、図示と説明を省略するが、他のタイプの情報処理装置300、400、600などについても、同様の筐体操作及び操作量の測定方法を適用可能であると理解されたい。
(1)筐体の変形操作
 ユーザが情報処理装置100を首に装着した状態では、U字の形状をした筐体101の開口部分が前方を向いている(前述並びに図1を参照のこと)。これに対し、ユーザは、図10に示すように、U字をした筐体101の左右の両先端部分の外側を左手(若しくは右手)の親指と人差し指で触れて、つまむような指先動作(ピンチイン)を行なうことで、筐体101のU字の先端の開口部分の間隙が短くなり、筐体101を閉じるような変形操作を行なうことができる。
 また、ユーザは、図11に示すように、U字をした筐体101の左右の両先端部分の内側に左手(若しくは右手)の親指と人差し指を挿入して、親指と一刺しを開くような指先動作(ピンチアウト)を行なうことで、筐体101のU字の先端の開口部分の間隙が広がり、筐体101を開くような変形操作を行なうことができる。
 筐体101の少なくとも一部(例えば、U字の底部)を弾性のある素材で構成することで、図10及び図11に示したような、筐体101のU字の形状の開閉操作が容易になる。また、ユーザが筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させて装着した状態では、U字の開口部分が前方を向いている。したがって、ユーザは、とっさのときであっても迷うことなく、U字の開口部分を左右いずれか一方の手で触れて、図10や図11に示したような筐体101に対する開閉操作を行なうことができる。
 ユーザがU字の形状をした筐体101の開閉操作を行なったことを検出する方法としては、開口部分の間隙の距離を計測する方法や、左右少なくとも一方の先端部の動きを計測する方法、筐体101の屈曲可能な部分の歪み量を計測する方法などが挙げられる。センサ部150は、いずれかの方法により開閉操作を行なったことを検出するセンサを備えているものとする。
 開口部分の間隙の距離を計測する方法の一例として、U字の形状をした筐体101の先端付近に測距センサを配設する方法が考えられる。例えば赤外線を利用した測距センサの場合、開口部分の左右いずれか一方の先端に赤外線発光素子を配設するとともに他方の先端に赤外線受光素子を配設する。まず、ユーザが筐体101を変形させる操作を行なった際に生じる測距センサのセンサ値の変化の特徴を、変形操作の識別情報と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたようなセンサ値が測距センサの出力から得られた場合に、ユーザが筐体101の変形操作を行なったことを検出することができる。
 開口部分の間隙の距離は、ユーザが変形操作を行なった場合以外は変化することが少ない。したがって、開口部分の間隙の距離を計測する方法によれば、ユーザが筐体101の変形操作を行なったことを安定して検出することができる。
 但し、開口部分の間隙の距離を計測する測距センサは、ユーザによる筐体101の変形操作を検出する以外の目的はほとんどなく、他の用途に転用することが難しい。また、ある程度高い精度で距離を計測するには、測距センサを設置する場所が限定されるため、収容スペースが狭い筐体101内の設計が困難になる。また、他の用途がない測距センサを追加することは、部品コストの増大により、製造コストの負担増を招来することも懸念される。
 また、U字の筐体101の先端部の動きを計測する方法の一例として、左右少なくとも一方の先端部に加速度センサを配設して、ユーザによる図10や図10に示した開成操作に伴う先端部の動きを計測する方法が考えられる。まず、ユーザが筐体101を変形させる操作を行なった際に生じる加速度センサのセンサ値の変化の特徴を、変形操作の識別情報と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたようなセンサ値が加速度センサの出力から得られた場合に、ユーザが筐体101の変形操作を行なったことを検出することができる。なお、加速度センサに、速度センサやジャイロセンサ、振動センサなどを組み合わせて、より高い精度で先端部の動きを計測するようにしてもよい。
 ユーザが開口部分を開閉させるような変形操作を行なった場合以外でも、ユーザが動く限り、筐体101の先端部の加速度は変動し続ける。このため、U字の筐体101の先端部の動きを加速度センサで計測する方法では、所望する変形操作を行なったとき以外の加速度変化を誤検出しないようなアルゴリズムが必要である。例えば、ユーザが筐体101の変形操作を行なったときの加速度変化と、それ以外で生じた加速度変化とを、機械学習により識別して、誤検出を防止するようにしてもよい。例えば、ディープラーニングを採り入れて、検出精度を向上させるようにしてもよい。
 なお、情報処理装置100は、筐体101を首に装着したユーザの状態やそのユーザの周囲の状態を検出する目的で、センサ部150の一部として加速度センサを装備している(前述)。したがって、加速度センサは他の用途との併用が可能であることから、U字の筐体101の先端部の動きを計測する方法によれば、コストの増加は少なく、また部品数が増えないことから設計上の負担も少ない。
 また、筐体101の屈曲可能な部分の歪み量を計測する方法の一例として、その屈曲可能な部分に、歪みゲージなどの力学センサを配設する方法が考えられる。歪みゲージは、例えば金属の抵抗体の変形による電気抵抗の変化をブリッジ回路により計測するデバイスであり、計測された電気抵抗の変化を歪み量に換算することができる。まず、ユーザが筐体101を変形させる操作を行なった際に生じる歪みゲージの電気抵抗の変化の特徴を、変形操作の識別情報と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたような電気抵抗の変化が歪みゲージから得られた場合に、ユーザが筐体101の変形操作を行なったことを検出することができる。
 ユーザが変形操作を行なった場合以外は筐体101が屈曲しない(若しくは、歪みゲージを配設した場所では屈曲が生じない)と仮定することができるならば、筐体101の屈曲可能な部分の歪み量を計測する方法により、ユーザが筐体101の変形操作を行なったことを安定して検出することができる。
 但し、筐体101の屈曲可能な部分の歪み量を計測する歪みゲージは、ユーザによる筐体101の変形操作を検出する以外の目的はほとんどなく、他の用途に転用することが難しく、部品コストの増大により、製造コストの負担増を招来することが懸念される。また、歪みゲージは、例えば筐体101の屈曲可能な部分の表面に貼設して用いられるが、歪みゲージからの信号線を筐体101内に引き込むための配線設計が煩雑化することも懸念される。
 なお、筐体の開口部分の間隙の距離を計測する方法は、筐体がU字の形状など開口部分を有する構造体であることを前提とする。したがって、図7や図8に示したような、開口部分を持たない、O字など閉じた形状をした筐体からなる情報処理装置700、800には適用できない操作方法である。他方、先端部の動きを計測する方法と、筐体の屈曲可能な部分の歪み量を計測する方法は、U字やO字など筐体の形状を問わず、少なくとも一部が屈曲可能で変形操作が可能な筐体構造であれば適用することが可能である。
(2)筐体の先端部を触る操作
 ユーザが情報処理装置100を首に装着した状態では、U字の形状をした筐体101の開口部分が前方を向いている(前述並びに図1を参照のこと)。これに対し、ユーザは、図12に示すように、U字をした筐体101の左側の先端部分を右手で触れる、若しくは左側の先端部分を指先で掴むあるいは覆うような操作を行なうことができる。同様に、ユーザは、図13に示すように、筐体101の右側の先端部分を左手で触れる、若しくは右側の先端部分を指先で掴むあるいは覆うような操作を行なうことができる。さらに、ユーザは、両手で筐体101の左右の両先端部分を同時に触れる、若しくは掴むあるいは覆うような操作を行なうことができる(図示を省略)。
 ユーザが筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させて装着した状態では、U字の開口部分が前方を向いている。したがって、ユーザは、とっさのときであっても迷うことなく、図12や図13に示したようなU字の開口部分の左右いずれか一方又は両方の先端部分を左右の手で触れたり、掴んだり、覆うような操作を行なうことができる。勿論、ユーザは、筐体101の先端部分だけでなく、外周の任意の場所を指先で触れたり覆ったりすることができる。
 ユーザが筐体101の表面を触れたことを検出する方法はさまざまである。例えば、筐体101の先端部分などユーザが触れる操作を行なうことを予定した場所に近接センサやタッチセンサを配設する方法が挙げられる。この場合、まず、ユーザが筐体101の該当箇所を触れる操作を行なった際に生じる近接センサ又はタッチセンサのセンサ値の変化の特徴を、触れる操作の識別情報と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたようなセンサ値が近接センサ又はタッチセンサの出力から得られた場合に、ユーザが筐体101の該当箇所を触れる操作を行なったことを検出することができる。
 但し、近接センサ又はタッチセンサがユーザによる筐体101を触れる操作を検出する以外の目的はほとんどなく、他の用途に転用することが難しい場合には、部品コストの増大や配線設計の煩雑化を伴うことが懸念される。
 そこで、ユーザが筐体101の表面を触れたことを検出する他の方法として、マイクロフォンなどで構成される複数の集音部111~113や、撮像部120を活用して、ユーザによる筐体101を触れる操作を検出する方法についても提案する。
 まず、集音部111~113を活用して、ユーザが筐体101の表面を触れたことを検出する方法について説明する。
 集音部111~113は、U字の筐体101の先端部分を始め複数の箇所に配設されている。また、図12や図13に示したようなユーザが指先で筐体101の表面に触れる操作が加えられて、いずれかの集音部111~113のマイクロフォン用の穴が塞がれると、音圧変化として検出することができる。また、ユーザは、2以上の集音部111~113の場所を同時に触れて、2以上の場所で同時に音圧変化を生じさせることもできる。
 したがって、まず、ユーザが筐体101の特定の箇所に触れる操作を行なった際に、マイクロフォン用の穴が塞がれて各集音部111~113で生じる音圧変化の特徴を、触れた場所など操作の識別情報と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたような音圧変化がいずれかの集音部111~113から得られた場合に、ユーザが筐体101の対応する場所で触れる操作を行なったことを検出することができる。また、本実施形態のように、筐体101上の複数の箇所に集音部111~113が配設される構成においては、音圧変化(すなわち、触れたこと)が検出された場所毎に情報処理装置100側の応答動作を定義するだけでなく、音圧変化が生じた2以上の場所の組み合わせ毎に応答動作を定義することもできる。
 集音部111~113がユーザの手でマイクロフォン用の穴が塞がれた以外の事象によっても、集音部111~113の音圧変化が生じる可能性がある。このため、集音部111~113を用いてユーザが筐体101の表面を触れたことを検出する方法では、ユーザが触れたとき以外の音圧変化を誤検出しないようなアルゴリズムが必要である。例えば、ユーザが筐体101を触れる操作を行なったときの集音部111~113の音圧変化と、それ以外で生じた集音部111~113の音圧変化とを、機械学習により識別して、誤検出を防止するようにしてもよい。例えば、ディープラーニングを採り入れて、検出精度を向上させるようにしてもよい。
 続いて、撮像部120を活用して、ユーザが筐体101の表面を触れたことを検出する方法について説明する。
 撮像部120は、正面の被写体を撮像し易くするため、U字の筐体101の先端部分に配設されている。勿論、先端部以外に、他の撮像部を設置してもよい。図12や図13に示したようなユーザが指先で筐体101の表面に触れる操作が加えられて、撮像部120の前方(レンズの光軸方向)が遮られると、輝度変化として検出することができる。また、複数の撮像部が装備される場合には、ユーザは、2以上の撮像部の場所を同時に触れて、2以上の場所で同時に輝度変化を生じさせることもできる。
 したがって、まず、ユーザが筐体101の先端部の撮像部120に触れる操作を行なった際に、撮像部120で生じる輝度変化の特徴を、触れた場所など操作の識別情報と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたような輝度変化が撮像部120から得られた場合に、ユーザが筐体101の対応する場所で触れる操作を行なったことを検出することができる。また、筐体101上の複数の箇所に撮像部が配設される構成においては、輝度変化(すなわち、触れたこと)が検出された場所毎に情報処理装置100側の応答動作を定義するだけでなく、輝度変化が生じた2以上の場所の組み合わせ毎に応答動作を定義することもできる。付言すれば、撮像部120により輝度変化が検出された場所と、集音部111~113により音圧変化が検出された場所の組み合わせに対しても、情報処理装置100側の応答動作を定義することもできる。
 撮像部120がユーザの手で触れられた以外の事象によっても、撮像部120の輝度変化が生じる可能性がある。このため、撮像部120を用いてユーザが筐体101の表面を触れたことを検出する方法では、ユーザが触れたとき以外の輝度変化を誤検出しないようなアルゴリズムが必要である。例えば、ユーザが筐体101を触れる操作を行なったときの撮像部120の輝度変化と、それ以外で生じた撮像部120の輝度変化とを、機械学習により識別して、誤検出を防止するようにしてもよい。例えば、ディープラーニングを採り入れて、検出精度を向上させるようにしてもよい。
 図9を参照しながら説明したように、複数の集音部111~113と撮像部120は、ネックバンド型の情報処理装置100が標準的に備える構成要素である。集音部111~113は、ユーザが発する音声、又は周囲の音声などの音声データを、ビームフォーミング処理のためにそれぞれ取得するという本来の用途がある。また、撮像部120は、ユーザの話し相手や周囲の風景を撮像するという本来の用途がある。すなわち、本来の用途を持つ集音部111~113と撮像部120を活用して、ユーザによる筐体101を触れる操作を検出する方法によれば、コストの増加は少なく、また部品数が増えないことから設計上の負担も少ない。
(3)筐体の先端部を握る操作
 ユーザが情報処理装置100を首に装着した状態では、U字の形状をした筐体101の開口部分が前方を向いている(前述並びに図1を参照のこと)。これに対し、ユーザは、図14に示すように、U字をした筐体101の左側の先端部分を左手で握る操作を行なうことができる。同様に、ユーザは、図15に示すように、筐体101の右側の先端部分を右手で握る操作を行なうことができる。さらに、ユーザは、両手で筐体101の左右の両先端部分を同時に握る操作を行なうことができる(図示を省略)。
 ユーザが筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させて装着した状態では、U字の開口部分が前方を向いている。したがって、ユーザは、とっさのときであっても迷うことなく、図14や図15に示したようなU字の開口部分の左右いずれか一方又は両方の先端部分を左右の手で握る操作を行なうことができる。そして、筐体101の左側の先端部だけを握る操作、右側の先端部だけを握る操作、並びに左右の先端部を同時に握る操作に対して、それぞれ情報処理装置100側の応答動作を定義することができる。
 ユーザがU字の筐体101の先端部を握ったことを検出する方法はさまざまである。例えば、筐体101の左側の先端部に配設された集音部111の音圧変化に基づいて、左側の先端部が握られたことを検出することができる。また、筐体の右側の先端部に配設された撮像部120の輝度変化に基づいて、右側の先端部が握られたことを検出することができる。音圧変化や輝度変化の誤検出を防止するために、機械学習などのアルゴリズムを導入するようにしてもよい(前述)。
 集音部111の音圧変化や撮像部120の輝度変化を検出する方法では、先端部が触れられたのか握られたのかを識別することができない、という問題がある。そこで、感圧センサを筐体101の左右の先端部に配設して、圧力の変化に基づいて握られたことを検出するようにしてもよい。この場合、まず、ユーザが筐体101の左右それぞれの先端部を握る動作を行なった際に生じる感圧センサのセンサ値の変化の特徴をあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたようなセンサ値が感圧センサの出力から得られた場合に、ユーザが筐体101の先端部を握る操作を行なったことを検出することができる。勿論、感圧センサのセンサ値と、集音部111の音圧変化並びに撮像部120の輝度変化の検出結果と組み合わせて、ユーザが先端部を握ったことを検出するようにしてもよい。
(4)筐体の表面をなぞる操作
 ユーザが情報処理装置100を首に装着した状態では、U字の形状をした筐体101の開口部分が前方を向いている(前述並びに図1を参照のこと)。これに対し、ユーザは、図16に示すように、筐体101の右側の側面を指先でなぞる操作を行なうことができる。同様に、ユーザは、図17に示すように、筐体101の左側の側面を指先でなぞる操作を行なうことができる。
 なお、図4に示したように、開口部の近傍、すなわち左右の各先端部分は、前方に近づくに従って幅が大きくなっていく筐体401の構造を利用すると、ユーザがなぞる操作を行なう側面の面積が広くなり、操作性が向上する。
 ユーザが筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させて装着した状態では、U字の開口部分が前方を向いている。したがって、ユーザは、とっさのときであっても迷うことなく、図16や図17に示したような筐体101の左右いずれか一方又は両方の側面を左右の指先でなぞる操作を行なうことができる。
 ここで、筐体101の左右の側面をなぞる操作はそれぞれ、前方に向かってなぞる操作と後方に向かってなぞる操作の2通りがある。したがって、筐体101の左右の側面の操作を組み合わせることで、ユーザは以下の8通りの入力操作が可能である。そして、各操作に対してそれぞれ情報処理装置400側の応答動作を定義することができる。
・筐体101の右側面を前方になぞる操作のみを行なう。
・筐体101の右側面を後方になぞる操作のみを行なう。
・筐体101の左側面を前方になぞる操作のみを行なう。
・筐体101の左側面を後方になぞる操作のみを行なう。
・筐体101の左右の両側面を前方になぞる操作を同時に行なう。
・筐体101の左右の両側面を後方になぞる操作を同時に行なう。
・筐体101の右側面を前方になぞる操作と左側面で後方になぞる操作を同時に行なう。
・筐体101の右側面を後方になぞる操作と左側面で前方になぞる操作を同時に行なう。
 ユーザが筐体101の側面をなぞったことを検出する方法はさまざまである。例えば、筐体101の左右の各側面に、静電容量式のタッチセンサを配設して、指先の接触位置や移動を検出することができる。この場合、まず、ユーザが筐体101の左右それぞれの側面をなぞる動作を行なった際に生じるタッチセンサのセンサ値の変化の特徴を、操作面及び操作方向と対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたようなセンサ値がタッチセンサの出力から得られた場合に、ユーザが筐体101の左右いずれの側面をなぞる操作を行なったことを検出することができる。
 なお、ユーザが筐体101の側面をなぞる操作を行なう場合以外にも、ユーザが筐体101の側面を指先で触れたり、指先以外のユーザの身体の一部が触れたりして、タッチセンサが反応する。このため、ユーザが指先でなぞる操作以外のタッチセンサの出力を誤検出しないようなアルゴリズムが必要である。例えば、ユーザが筐体101の側面をなぞる操作を行なったときのタッチセンサの出力を機械学習して、誤検出を防止するようにしてもよい。例えば、ディープラーニングを採り入れて、検出精度を向上させるようにしてもよい。
(5)筐体の装着位置をずらす操作
 ユーザが情報処理装置100を正常に(若しくは通常に)首に装着した状態では、U字の形状をした筐体101の開口部分がユーザの正面方向を向いている。これに対し、ユーザは、筐体101を自分の首回りに回転させて、図18に示すように開口部が正面よりも右方向を向くようにずらしたり、逆に図19に示すように開口部が正面よりも左方向を向くようにずらしたりすることができる。
 ユーザが筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させて装着した状態では、U字の開口部分が前方を向いている。したがって、ユーザは、とっさのときであっても迷うことなく、図18や図19に示したような、筐体101を自分の首回りに回転させて、開口部が正面よりも左右いずれかの方向を向くように装着位置をずらす操作を行なうことができる。
 ユーザが筐体101の装着位置をずらしたこと及びずらした方向を検出する方法はさまざまである。例えば、情報処理装置100がセンサ部150として装備する加速度センサを用いて、ユーザが筐体101の装着位置をずらしたことによって発生する加速度を計測する方法が考えられる。まず、ユーザが筐体101を自分の首回りに回しての装着位置を左右にそれぞれずらす操作を行なった際に生じる加速度センサのセンサ値の変化の特徴を、左右にずらす操作の識別情報とそれぞれ対応付けてあらかじめ記録しておく。そして、ユーザが情報処理装置100を使用している最中に、記録しておいたようなセンサ値が加速度センサの出力から得られた場合に、ユーザが筐体101の装着位置を左右いずれかにずらす操作を行なったことを検出することができる。なお、加速度センサに、速度センサやジャイロセンサ、振動センサなどを組み合わせて、より高い精度で先端部の動きを計測するようにしてもよい。
 ユーザが筐体101の装着位置をずらす操作を行なった場合以外でも、ユーザが動く限り、筐体101の先端部の加速度は変動し続ける。このため、筐体101の装着位置をずらす操作を加速度センサで計測する方法では、装着位置をずらす操作を行なったとき以外の加速度変化を誤検出しないようなアルゴリズムが必要である。例えば、ユーザが筐体101の装着位置をずらす操作を行なったときの加速度変化と、それ以外で生じた加速度変化とを、機械学習により識別して、誤検出を防止するようにしてもよい。例えば、ディープラーニングを採り入れて、検出精度を向上させるようにしてもよい。
 なお、情報処理装置100は、筐体101を首に装着したユーザの状態やそのユーザの周囲の状態を検出する目的で、センサ部150の一部として加速度センサを装備している(前述)。したがって、加速度センサは他の用途との併用が可能であることから、U字の筐体101の先端部の動きを計測する方法によれば、コストの増加は少なく、また部品数が増えないことから設計上の負担も少ない。
(6)操作子に対する操作
 図3には、U字の形状をした筐体301の左右の各先端部分の下方に、装着状態での筐体301の傾斜を調整する役割を果たす突起部302及び303を備えた情報処理装置300について例示した。これら突起部302及び303の少なくとも一方を、回転操作が可能やダイヤルや、押下操作が可能なボタンといった操作子として構成することで、ユーザは操作子に対する操作を行なうことができる(図20を参照のこと)。
 ここで、左右の突起部302及び303に対する回転操作と押下操作を組み合わせることで、ユーザは以下の11通りの入力操作が可能である。そして、各操作に対してそれぞれ情報処理装置300側の応答動作を定義することができる。
・突起部302のみを左回りに回転させる。
・突起部302のみを右回りに回転させる。
・突起部303のみを左回りに回転させる。
・突起部303のみを右回りに回転させる。
・突起部302と突起部303を同時に左回りに回転させる。
・突起部302と突起部303を同時に右回りに回転させる。
・突起部302を左回りに回転させるとともに、突起部303を右回りに回転させる。
・突起部302を右回りに回転させるとともに、突起部303を左回りに回転させる。
・突起部302のみを押下操作する。
・突起部303のみを押下操作する。
・突起部302及び突起部303を同時に押下操作する。
(7)筐体の先端部に対する伸縮操作
 図21に示すように、U字の形状をした筐体101の左右少なくとも一方の先端部を伸縮可能な構造にすることで、ユーザは以下の3通りの作が可能である。そして、各操作に対してそれぞれ情報処理装置100側の応答動作を定義することができる。
・左側の先端部のみを伸ばす。
・右側の先端部のみを伸ばす。
・左右両側の先端部を同時に伸ばす。
 例えば、筐体101の先端部分を伸縮可能な素材で構成することで、図21に示すような伸縮操作が可能となる。あるいは、先端部分に機械式スライド機構を組み込むことによっても、図21に示すような伸縮操作が可能となる。
 ユーザが筐体101をユーザの首に掛けて、首の左右両側から後ろ側(背中側)にかけて半周回させて装着した状態では、U字の開口部分が前方を向いている。したがって、ユーザは、とっさのときであっても迷うことなく、図21に示したような、左右いずれか一方又は両方の先端部分の伸縮操作を行なうことができる。
 ここまで、主に情報処理装置100の筐体101に対してユーザが行なうことが可能な入力操作例(1)~(7)について説明してきた。情報処理装置100が入力操作(1)~(7)のうちいずれか1つが可能であるだけでなく、入力操作(1)~(7)の任意の2以上を組み合わせて利用することができるものと理解されたい。
 情報処理装置100は、ユーザからの上述したような入力操作が行なわれると、応答動作をユーザに返す(図22を参照のこと)。以下では、各入力操作(1)~(7)に対して定義することができる情報処理装置100側の応答動作例について説明する。
(11)筐体の変形操作に対する応答動作
 ユーザが図10や図11に示したような筐体101の変形操作を所定回数だけ行なった際に、情報処理装置100は、応答動作として、システムのロック状態又はスリープ状態を解除する。あるいは逆に、情報処理装置100は、変形操作に対する応答動作として、ロック状態又はスリープ状態に移行するようにしてもよい。ここで言う所定回数は、1回でも複数回でもよい。但し、ユーザの筐体101に対する操作以外の事象による誤動作を防止するために、複数回に設定するようにしてもよい。
 他の応答動作例として、情報処理装置100が実行中のアプリケーション内にあるリストのインデックスを変形操作した回数だけ変更するようにしてもよい。例えば、情報処理装置100が音楽再生中に、変形操作した回数に相当する曲数だけ早送り又は巻き戻しする。あるいは、変形操作した回数に相当するチャプター数だけコンテンツの再生位置を前方又は後方にジャンプさせる。
 図10に示したような筐体101の開口部を閉じる変形操作と、図11に示したような筐体101の開口部を開く変形操作は、対になる操作としてユーザに理解され易い。そこで、筐体101を閉じる変形操作と開く変形操作の各々に対して、以下に示すような、互いに対になる情報処理装置100の応答動作を割り当てるようにしてもよい。
・閉じる変形操作により音楽再生を開始し、開く変形操作により音楽再生を停止する。
・閉じる変形操作により曲を早送りし、開く変形操作により曲を巻き戻しする。
・閉じる変形操作により音量をアップし、開く変形操作により音両をダウンする。
(12)筐体の先端部を触る操作に対する応答動作
 ユーザが図12や図13に示したような筐体101の開口部の左右いずれかの先端部を一定時間だけ触り続けた際に、情報処理装置100は、応答動作として、システムをスリープ状態又はシャットダウン状態に移行する。あるいは逆に、情報処理装置100は、筐体101の先端部を触る操作に対する応答動作として、スリープ状態を解除し、又はシステムを再起動させるようにしてもよい。
 図12に示したような筐体101の開口部の左先端部分を触る操作と、図13に示したような筐体101の開口部の右先端部分を触る操作は、対になる操作としてユーザに理解され易い。そこで、筐体101の開口部の左先端部分を触る操作と右先端部分を触る操作の各々に対して、以下に示すような、互いに対になる情報処理装置100の応答動作を割り当てるようにしてもよい。
・左先端部分を触る操作により音楽再生を開始し、右先端部分を触る操作により音楽再生を停止する。
・左先端部分を触る操作により曲を早送りし、右先端部分を触る操作により曲を巻き戻しする。
・左先端部分を触る操作により音量をアップし、右先端部分を触る操作により音両をダウンする。
 筐体101の開口部の右先端部に撮像部120が配設されているような構成例では、筐体101の開口部の左先端部分のみを一定時間だけ触る操作(右先端部分は解放されたままとする)が検出されたときには、情報処理装置100の応答動作として、撮像部120のよる撮像動作を開始するようにしてもよい。撮像部120が撮像動作中に、筐体101の開口部の右先端部を触る操作が行なわれたとき、あるいは撮像部120の視界がユーザの手やその他の異物などで遮られて輝度が低下したことが検出されたときには、情報処理装置100の応答動作として、撮像部120の撮像動作を停止又は一時停止するようにしてもよい。
(13)筐体の先端部を握る操作に対する応答動作
 ユーザが図14や図15に示したような筐体101の開口部の左右いずれかの先端部を握る操作を行なった際に、情報処理装置100は、応答動作として、システムのロック状態又はスリープ状態を解除する。あるいは逆に、情報処理装置100は、筐体101の先端部を握る一定時間だけ操作に対する応答動作として、システムをロック状態又はスリープ状態に移行させるようにしてもよい。
 ユーザが筐体101の先端部を握る操作は、とっさに行ない易い。そこで、ユーザが筐体101の先端部を握る操作に対する情報処理装置100の応答動作として、実行中のアプリケーションに対する緊急の処理コマンドを割り当てるようにしてもよい。
 例えば、情報処理装置100で音楽再生中に、ユーザが音楽再生をして欲しくないタイミングでとっさに開口部の先端部を握ると、応答動作として、音楽再生を停止又は一時停止、あるいはミュートする。したがって、ユーザが公共交通機関の車両やエレベータに乗り込む際に、再生音が鳴り響いて恥ずかしい思いをしなくて済む。また、ユーザは、急に人に話し掛けられても、再生音に邪魔されずに会話に応じることができる。
 ユーザが筐体101の開口部の左右いずれか一方の先端部を握る操作はとっさに行なうが、左右両方の先端部を同時に握る操作をとっさに行なうことはなかなかない。そこで、ユーザが筐体101の開口部の左右両方の先端部を同時に一定時間だけ握る操作をしたとき、情報処理装置100の応答動作として、システムをスリープ状態又はシャットダウン状態に移行させるといった非常時動作を割り当てるようにしてもよい。
(14)筐体の側面をなぞる操作に対する応答動作
 ユーザが図16や図17に示したような筐体101の左右いずれかの側面をなぞる操作を行なった際、情報処理装置100は、応答動作として、実行中のアプリケーション内にあるリストのインデックスの変更を行なうようにしてもよい。応答動作として、以下で例示するような、情報処理装置100が音楽再生中における再生音量の調整や選曲などに関する処理を割り当てるようにしてもよい。
・筐体101の左側面のみを前方又は後方になぞる操作が行なわれたことに応答して、再生音量をアップする。
・筐体101の右側面のみを前方又は後方になぞる操作が行なわれたことに応答して、再生音量をダウンする。
・筐体101の左側面を前方になぞる操作と右側面を後方になぞる操作が同時に行なわれたことに応答して、前の曲に巻き戻しする。
・筐体101の左側面を後方になぞる操作と右側面を前方になぞる操作が同時に行なわれたことに応答して、次の曲に早送りする。
・筐体101の左右の両側面を前方になぞる操作が同時に行なわれたことに応答して、システムをスリープ状態又はシャットダウン状態に移行させる。
・筐体101の左右の両側面を後方になぞる操作が同時に行なわれたことに応答して、システムをスリープ状態又はシャットダウン状態に移行させる。
 筐体101の側面をなぞる操作は、例えば筐体101の左右の各側面に静電容量式のタッチセンサを配設するだけで容易に検出可能で、ユーザの入力方法として活用することができる。また、ユーザは側面を「なぞる」という簡易な動作のみで入力操作を行なうことができるとともに、筐体101の左右の側面となぞる方向の組み合わせで8通りの入力操作が可能である。したがって、ユーザが好むルールを設定して、その操作によって個人の認証や、クレジット決済などを実行するようにすることもできる。なお、図4に示したように、開口部の近傍、すなわち左右の各先端部分は、前方に近づくに従って幅が大きくなっていく筐体401の構造を利用すると、ユーザがなぞる操作を行なう側面の面積が広くなり、操作性が向上する。
(15)筐体の装着位置をずらす操作に対する応答動作
 ユーザが図18や図19に示したような筐体101の装着位置を左又は右にずらす操作は、とっさに行ない易い。そこで、ユーザが筐体101の装着位置を左又は右の少なくとも一方にずらす操作に対する情報処理装置100の応答動作として、実行中のアプリケーションに対する緊急の処理コマンドを割り当てるようにしてもよい。
 例えば、情報処理装置100で音楽再生中に、ユーザが音楽再生をして欲しくないタイミングでとっさに筐体101の装着位置を左又は右にずらすと、応答動作として、音楽再生を停止又は一時停止、あるいはミュートする。したがって、ユーザが公共交通機関の車両やエレベータに乗り込む際に、再生音が鳴り響いて恥ずかしい思いをしなくて済む。また、ユーザは、急に人に話し掛けられても、再生音に邪魔されずに会話に応じることができる。
 また、ユーザが情報処理装置100で通話中にとっさに筐体101の装着位置を左又は右にずらすと、通話を終了する若しくは保留状態にするといった応答処理を実行するようにしてもよい。
(16)操作子への操作に対する応答動作
 ユーザは、図20に示したように、情報処理装置300の筐体301の左右の先端部分の下方に配設された突起部302又は303に対する回転操作や押下操作を行なうことができる。情報処理装置300は、突起部302又は303のうちいずれか一方の回転操作に対する応答動作として、スピーカのゲイン調整を実行し、他方の回転操作に対する応答動作として、マイクロフォンのゲイン調整を実行するようにしてもよい。あるいは、情報処理装置300は、音楽再生中における突起部302又は303のうちいずれか一方の回転操作に対する応答動作として、回転方向に応じて曲を早送り又は巻き戻しを行ない、また回転量に応じた曲数だけ早送り又は巻き戻しするようにしてもよい。
(17)筐体の先端部の伸縮操作に対する応答動作
 図21に示したように、情報処理装置100の筐体101の左右の先端部分が伸縮可能な場合には、ユーザは、集音部が配設された方の先端を伸ばして自分の口元に近づけることで、屋外など騒音レベルが大きな環境下でも、自分が発話した音声を効率よく集音させることができる。そこで、集音部111が配設された左側の瀬先端部分を伸ばす操作に対する応答動作として、情報処理装置100は通話機能を開始したり、通話の保留状態を解除したりするようにしてもよい。
 ここまで説明してきたように、本明細書で開示する技術によれば、ユーザは、ネックバンド型の情報処理装置100の筐体101の形状を活用して、さまざまな入力操作を行なうことができる。この結果、ユーザは、状況に応じて,最も快適なUIを選択することが可能になる。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書では、本明細書で開示する技術をネックバンド型のウェアラブル・デバイスに適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。ネックバンド以外のさまざまな形態のウェアラブル・デバイスにも本明細書で開示する技術を同様に適用することができる。また、タブレット端末やノートブック型コンピュータを始めとして、ウェアラブル・デバイスでないさまざまなタイプの情報処理装置に対しても、本明細書で開示する技術を適用することができる。
 また、本明細書で開示する技術を適用した情報処理装置は、例えばネックバンド型のウェアラブル・デバイスとして、ユーザが首に掛けるように装着して使用される。勿論、情報処理装置は、首以外のユーザの身体のいずれかの部位に装着して使用したり、あるいは、ユーザの身体には着用せず、例えば机上に置いて使用したりすることもできる。
 また、本明細書で開示する技術を適用した情報処理装置は、例えばネックバンド型のウェアラブル・デバイスとして、ライフログの分野やスポーツ支援の分野など、多岐にわたる分野で利用することができる。情報処理装置は、例えば装着したユーザがジョギング中に音楽再生したり、動画又は静止画の撮像したり、適当な音声ガイダンスを流したりするといった、ユーザにさまざまなサービスを提供することができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)ユーザに装着される筐体と、
 前記筐体に対する操作を検出する検出部と、
 前記検出結果に対する応答動作を制御する制御部と、
を具備する情報処理装置。
(2)前記検出部は、前記筐体に対する変形操作を検出する、
上記(1)に記載の情報処理装置。
(3)前記筐体は、U字の形状を有し、
 前記検出部は、前記筐体の前記U字の開口部を閉じる操作又は開く操作のうち少なくとも一方を検出する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(4)前記検出部は、前記筐体の前記U字の開口部の間隙の距離計測、前記開口部の少なくとも一方の先端部の動き計測、前記筐体のひずみ計測のうち少なくとも1つを用いて、前記筐体に対する操作を検出する、
上記(3)に記載の情報処理装置。
(5)前記検出部は、前記筐体を触る操作を検出する、
上記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)前記筐体は、U字の形状を有し、
 前記検出部は、前記筐体の前記U字の開口部の左右少なくとも一方を触る操作を検出する、
上記(5)に記載の情報処理装置。
(7)前記検出部は、近接センサ又はタッチセンサの検出結果に基づいて前記筐体を触る操作を検出する、
上記(5)又は(6)のいずれかに記載の情報処理装置。
(8)集音部又は撮像部のうち少なくとも1つをさらに備え、
 前記検出部は、前記集音部における音圧変化に応答して前記集音部が配置された場所を触る操作を検出し、又は、前記撮像部における輝度変化に応答して前記撮像部が配置された場所を触る操作を検出する、
上記(5)又は(6)のいずれかに記載の情報処理装置。
(9)前記筐体は、U字の形状を有し、
 前記検出部は、前記筐体の前記U字の開口部の左右少なくとも一方の先端部分を握る操作を検出する、
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)集音部又は撮像部のうち少なくとも1つをさらに備え、
 前記検出部は、前記集音部における音圧変化に応答して前記集音部が配置された場所を握る操作を検出し、又は、前記撮像部における輝度変化に応答して前記撮像部が配置された場所を握る操作を検出する、
上記(9)に記載の情報処理装置。
(11)前記検出部は、感圧センサの検出結果に基づいて前記筐体を触る操作を検出する、
上記(9)に記載の情報処理装置。
(12)前記検出部は、前記筐体の表面をなぞる操作を検出する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)前記筐体は、U字の形状を有し、
 前記検出部は、前記筐体の前記U字の開口部の左右いずれの表面に対してなぞる操作が行なわれたか及びなぞられた方向を検出する、
上記(12)に記載の情報処理装置。
(14)前記検出部は、タッチセンサの検出結果に基づいて前記筐体の表面をなぞる操作を検出する、
上記(12)又は(13)のいずれかに記載の情報処理装置。
(14)前記検出部は、前記筐体の装着位置をずらす操作を検出する、
上記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)前記検出部は、加速度センサの検出結果に基づいて前記筐体の装着位置をずらす操作及びずらした方向を検出する、
上記(15)に記載の情報処理装置。
(17)前記筐体は、U字の形状を有し、
 前記筐体の前記U字の開口部の左右の先端部にそれぞれ回転操作又は押下操作の少なくとも一方が可能な操作子をさらに備え、
 前記検出部は、前記の左右の各操作子に対する回転操作又は押下操作を検出する、
上記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)前記筐体は、U字の形状を有し、
 前記検出部は、前記筐体の前記U字の開口部の左右の先端部に対する伸縮操作を検出する、
上記(1)乃至(17)のいずれかに記載の情報処理装置。
(19)前記検出部は、前記筐体に対して操作が行なわれたときの検出値の変化の特徴をあらかじめ記録し、ユーザが前記情報処理装置を使用している最中に前記記録しておいた検出値が得られたことに応答して、前記筐体に対する操作を検出する、
上記(1)乃至(18)のいずれかに記載の情報処理装置。
(20)ユーザが装着した情報処理装置の筐体に対する操作を検出する検出ステップと、
 前記検出結果に対する前記情報処理装置の応答動作を制御する制御ステップと、
を有する情報処理装置の制御方法。
 100…情報処理装置、101…筐体
 111~113…集音部、120…撮像部
 130…音声出力部、140…操作部
 150…センサ部、160…通信部、170…制御部
 300…情報処理装置、301…筐体
 302、303…突起部
 400…情報処理装置、401…筐体
 402、403…傾斜調整部
 500…情報処理装置、501…筐体
 600…情報処理装置、601…筐体
 611~614…集音部
 700…情報処理装置、701…筐体
 800…情報処理装置、801L…筐体左部、801R…筐体右部

Claims (20)

  1.  ユーザに装着される筐体と、
     前記筐体に対する操作を検出する検出部と、
     前記検出結果に対する応答動作を制御する制御部と、
    を具備する情報処理装置。
  2.  前記検出部は、前記筐体に対する変形操作を検出する、
    請求項1に記載の情報処理装置。
  3.  前記筐体は、U字の形状を有し、
     前記検出部は、前記筐体の前記U字の開口部を閉じる操作又は開く操作のうち少なくとも一方を検出する、
    請求項1に記載の情報処理装置。
  4.  前記検出部は、前記筐体の前記U字の開口部の間隙の距離計測、前記開口部の少なくとも一方の先端部の動き計測、前記筐体のひずみ計測のうち少なくとも1つを用いて、前記筐体に対する操作を検出する、
    請求項3に記載の情報処理装置。
  5.  前記検出部は、前記筐体を触る操作を検出する、
    請求項1に記載の情報処理装置。
  6.  前記筐体は、U字の形状を有し、
     前記検出部は、前記筐体の前記U字の開口部の左右少なくとも一方を触る操作を検出する、
    請求項5に記載の情報処理装置。
  7.  前記検出部は、近接センサ又はタッチセンサの検出結果に基づいて前記筐体を触る操作を検出する、
    請求項5に記載の情報処理装置。
  8.  集音部又は撮像部のうち少なくとも1つをさらに備え、
     前記検出部は、前記集音部における音圧変化に応答して前記集音部が配置された場所を触る操作を検出し、又は、前記撮像部における輝度変化に応答して前記撮像部が配置された場所を触る操作を検出する、
    請求項5に記載の情報処理装置。
  9.  前記筐体は、U字の形状を有し、
     前記検出部は、前記筐体の前記U字の開口部の左右少なくとも一方の先端部分を握る操作を検出する、
    請求項1に記載の情報処理装置。
  10.  集音部又は撮像部のうち少なくとも1つをさらに備え、
     前記検出部は、前記集音部における音圧変化に応答して前記集音部が配置された場所を握る操作を検出し、又は、前記撮像部における輝度変化に応答して前記撮像部が配置された場所を握る操作を検出する、
    請求項9に記載の情報処理装置。
  11.  前記検出部は、感圧センサの検出結果に基づいて前記筐体を触る操作を検出する、
    請求項9に記載の情報処理装置。
  12.  前記検出部は、前記筐体の表面をなぞる操作を検出する、
    請求項1に記載の情報処理装置。
  13.  前記筐体は、U字の形状を有し、
     前記検出部は、前記筐体の前記U字の開口部の左右いずれの表面に対してなぞる操作が行なわれたか及びなぞられた方向を検出する、
    請求項12に記載の情報処理装置。
  14.  前記検出部は、タッチセンサの検出結果に基づいて前記筐体の表面をなぞる操作を検出する、
    請求項12に記載の情報処理装置。
  15.  前記検出部は、前記筐体の装着位置をずらす操作を検出する、
    請求項1に記載の情報処理装置。
  16.  前記検出部は、加速度センサの検出結果に基づいて前記筐体の装着位置をずらす操作及びずらした方向を検出する、
    請求項15に記載の情報処理装置。
  17.  前記筐体は、U字の形状を有し、
     前記筐体の前記U字の開口部の左右の先端部にそれぞれ回転操作又は押下操作の少なくとも一方が可能な操作子をさらに備え、
     前記検出部は、前記の左右の各操作子に対する回転操作又は押下操作を検出する、
    請求項1に記載の情報処理装置。
  18.  前記筐体は、U字の形状を有し、
     前記検出部は、前記筐体の前記U字の開口部の左右の先端部に対する伸縮操作を検出する、
    請求項1に記載の情報処理装置。
  19.  前記検出部は、前記筐体に対して操作が行なわれたときの検出値の変化の特徴をあらかじめ記録し、ユーザが前記情報処理装置を使用している最中に前記記録しておいた検出値が得られたことに応答して、前記筐体に対する操作を検出する、
    請求項1に記載の情報処理装置。
  20.  ユーザが装着した情報処理装置の筐体に対する操作を検出する検出ステップと、
     前記検出結果に対する前記情報処理装置の応答動作を制御する制御ステップと、
    を有する情報処理装置の制御方法。
PCT/JP2017/040237 2016-12-22 2017-11-08 情報処理装置及びその制御方法 WO2018116678A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/469,406 US20210405686A1 (en) 2016-12-22 2017-11-08 Information processing device and method for control thereof
EP17885018.6A EP3561642A4 (en) 2016-12-22 2017-11-08 INFORMATION PROCESSING DEVICE AND METHOD FOR CONTROLLING THEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016248786 2016-12-22
JP2016-248786 2016-12-22

Publications (1)

Publication Number Publication Date
WO2018116678A1 true WO2018116678A1 (ja) 2018-06-28

Family

ID=62626120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040237 WO2018116678A1 (ja) 2016-12-22 2017-11-08 情報処理装置及びその制御方法

Country Status (3)

Country Link
US (1) US20210405686A1 (ja)
EP (1) EP3561642A4 (ja)
WO (1) WO2018116678A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035405A (ja) * 2018-08-31 2020-03-05 株式会社オトングラス 音声出力装置
JP2021078064A (ja) * 2019-11-13 2021-05-20 Fairy Devices株式会社 首掛け型装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210184A (ja) * 2007-02-27 2008-09-11 Yamaha Corp 入力デバイスおよび演奏装置
JP2013092666A (ja) * 2011-10-26 2013-05-16 Pioneer Electronic Corp ソース機器およびこれを備えた再生システム
WO2016063587A1 (ja) 2014-10-20 2016-04-28 ソニー株式会社 音声処理システム
JP2016076202A (ja) * 2014-10-07 2016-05-12 エルジー エレクトロニクス インコーポレイティド 移動端末機
WO2016123129A1 (en) * 2015-01-26 2016-08-04 New York University Wearable band
JP2016177568A (ja) * 2015-03-20 2016-10-06 カシオ計算機株式会社 表示装置及び情報表示方法、情報表示プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9629774B2 (en) * 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210184A (ja) * 2007-02-27 2008-09-11 Yamaha Corp 入力デバイスおよび演奏装置
JP2013092666A (ja) * 2011-10-26 2013-05-16 Pioneer Electronic Corp ソース機器およびこれを備えた再生システム
JP2016076202A (ja) * 2014-10-07 2016-05-12 エルジー エレクトロニクス インコーポレイティド 移動端末機
WO2016063587A1 (ja) 2014-10-20 2016-04-28 ソニー株式会社 音声処理システム
WO2016123129A1 (en) * 2015-01-26 2016-08-04 New York University Wearable band
JP2016177568A (ja) * 2015-03-20 2016-10-06 カシオ計算機株式会社 表示装置及び情報表示方法、情報表示プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3561642A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035405A (ja) * 2018-08-31 2020-03-05 株式会社オトングラス 音声出力装置
JP7207694B2 (ja) 2018-08-31 2023-01-18 株式会社オトングラス 音声出力装置
JP2021078064A (ja) * 2019-11-13 2021-05-20 Fairy Devices株式会社 首掛け型装置

Also Published As

Publication number Publication date
EP3561642A1 (en) 2019-10-30
EP3561642A4 (en) 2019-12-25
US20210405686A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP7274527B2 (ja) ウェアラブルデバイスの状態に基づいたコンパニオン通信デバイスの動作の変更
US10904653B2 (en) Microphone natural speech capture voice dictation system and method
US10824251B2 (en) Devices and methods for sharing user interaction
CN105451111B (zh) 耳机播放控制方法、装置及终端
TWI496480B (zh) 偕同一可攜式電子裝置用於產生多頻道音訊之系統和方法
KR102102647B1 (ko) 무선 리시버 및 그 제어 방법
JP7040458B2 (ja) 音響出力装置、音響出力装置の機能実行方法及びプログラム
KR20180012055A (ko) 전자 장치 및 전자 장치의 동작 방법
CN104092936A (zh) 自动对焦方法及装置
US10560773B1 (en) Click and slide button for tactile input
WO2017020422A1 (zh) 一种音频电路选择方法、装置和电路以及手持终端
WO2018000764A1 (zh) 一种声道自动匹配的方法、装置以及耳机
KR20160029524A (ko) 전자 디바이스 및 이를 포함하는 시스템
WO2018116678A1 (ja) 情報処理装置及びその制御方法
WO2019039591A4 (ja) 読み上げシステム及び読み上げ方法
JP2021177418A (ja) 電子機器の通訳機能提供方法およびイヤセット機器
JP6591167B2 (ja) 電子機器
JP5392827B2 (ja) 音データ処理装置
CN115706883A (zh) 音频信号处理方法及装置
KR102643055B1 (ko) 헤드셋 전자 장치 및 그와 연결되는 전자 장치
KR20160134310A (ko) 전자 장치 및 그의 제어 방법
JP6628853B2 (ja) 音声映像追跡装置
KR20160023212A (ko) 글래스 타입의 이동 단말기 및 그 제어방법
JPWO2020031367A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018083511A1 (zh) 一种音频播放装置及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17885018

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017885018

Country of ref document: EP

Effective date: 20190722

NENP Non-entry into the national phase

Ref country code: JP