WO2016178328A1 - Wearable device, information processing method and program - Google Patents

Wearable device, information processing method and program Download PDF

Info

Publication number
WO2016178328A1
WO2016178328A1 PCT/JP2016/052451 JP2016052451W WO2016178328A1 WO 2016178328 A1 WO2016178328 A1 WO 2016178328A1 JP 2016052451 W JP2016052451 W JP 2016052451W WO 2016178328 A1 WO2016178328 A1 WO 2016178328A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
wearable device
user
display
display control
Prior art date
Application number
PCT/JP2016/052451
Other languages
French (fr)
Japanese (ja)
Inventor
正樹 秋常
高橋 敏
小林 信夫
角田 直隆
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2016178328A1 publication Critical patent/WO2016178328A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones

Definitions

  • the computer when the wearable device is worn by a user, the computer functions as a display control unit that causes the display unit to display information related to operations on the operation unit arranged outside the user's field of view.
  • a program is provided to make it happen.
  • an operation unit is installed outside the headphones, and headphones that allow a user to issue a reproduction instruction, an end instruction, or the like by operating the operation unit have been developed.
  • the operation unit 122 and the projection unit 126 can be installed in different housings 12.
  • the operation unit 122 when the operation unit 122 is installed in the right housing 12a, the projection unit 126 is installed in the left housing 12b.
  • the projection unit 126 when the palm is used as the projection plane, the user is mounted on the left side of the body center line while operating the operation unit 122 mounted on the right side of the body center line with the right hand. It is possible to project the light projected by the projection unit 126 on the left hand. Therefore, the user can easily see the projected image while performing an operation on the operation unit 122 due to the structure of the human body.
  • the operation unit 122 may be installed in the left housing 12b, and the projection unit 126 may be installed in the right housing 12a. Further, the operation unit 122 and the projection unit 126 can be installed in the same housing 12.
  • Operation unit 122 is a part for the user to operate various functions of the headphones 10.
  • the contents of the operation unit 122 will be described in detail with reference to FIG.
  • FIG. 2 is an explanatory diagram showing an appearance when the headphones 10 are viewed from below.
  • a plurality of operation units 122 (operation keys 122a, operation keys 122b, and operation keys 122c) may be installed on the bottom surface of the right housing 12a.
  • FIG. 3 is an explanatory diagram showing a state in which the user places the right hand on the right housing 12a in order to perform an operation on the operation unit 122.
  • FIG. 4 is an explanatory diagram showing a configuration when the right housing 12a is viewed from an obliquely downward direction.
  • the sensor 124a can be installed near the operation key 122a
  • the sensor 124b can be installed near the operation key 122b
  • the sensor 124c can be installed near the operation key 122c.
  • the sensor 124 is basically installed at a location where the user touches the associated operation key 122 when the user tries to touch it or a location where the user's hand approaches.
  • FIG. 6 is a functional block diagram showing the internal configuration of the headphones 10 according to the first embodiment.
  • the headphone 10 includes a control unit 100, a communication unit 120, an operation unit 122, a sensor 124, a projection unit 126, and an audio output unit 128.
  • description is abbreviate
  • a display indicating the function of the operation unit is displayed, for example, on the windshield. It is also possible to display them.
  • a surgical instrument such as an endoscope
  • information on the state of the surgical instrument is projected onto the projector. May be.
  • information on the work tool is projected onto the projector. You may let them.
  • the wearable device has a plurality of the operation units, The wearable device according to (3), wherein the display control unit causes the display unit to display information on the operation with respect to the operation unit in which the approach or contact of the user's hand is detected among the plurality of operation units. . (5) When there are a plurality of operation units in which the approach or contact of the user's hand is detected among the plurality of operation units, the display control unit is configured to perform a plurality of operations in which the approach or contact of the user's hand is detected.
  • the mounting according to (4) wherein information regarding the operation with respect to the operation unit having the highest priority among the units is displayed on the display unit, and information regarding the operation with respect to another operation unit is not displayed on the display unit. Mold device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)

Abstract

[Problem] To provide a wearable device, information processing method and program capable of improving operability of an operation unit of said wearable device in cases in which said unit is outside of a user's view. [Solution] A wearable device is provided with an operation unit that is located outside of a user's view when said device is worn by said user and a display control unit that causes a display unit to display information relating to the operation of said operation unit.

Description

装着型装置、情報処理方法、およびプログラムWearable device, information processing method, and program
 本開示は、装着型装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to a wearable device, an information processing method, and a program.
 従来、例えばヘッドホンやHMD(Head Mounted Display)など、ユーザが身体に装着して映像や音楽を視聴するための装着型装置が各種開発されている。 2. Description of the Related Art Conventionally, various types of wearable devices for a user to watch images and music by wearing them on their bodies such as headphones and HMD (Head Mounted Display) have been developed.
 例えば、特許文献1には、再生指示や終了指示などをユーザが行うための複数の操作キーがヘッドバンドの外側に設置されたヘッドホンが記載されている。 For example, Patent Literature 1 describes a headphone in which a plurality of operation keys for a user to perform a reproduction instruction, an end instruction, and the like are installed outside the headband.
特開2000-32582号公報JP 2000-32582 A
 しかしながら、特許文献1に記載の技術では、装着型装置がユーザに装着された状態では、操作性が低い。例えば、操作キーが設けられたヘッドホンがユーザの頭部に装着された時に、操作キーはユーザの視界外に位置する。このためユーザは、所望の操作キーの位置を視認できず、所望の操作を行い難い、または、誤操作してしまうといった不都合があった。 However, with the technique described in Patent Document 1, the operability is low when the wearable device is worn by the user. For example, when a headphone provided with operation keys is worn on the user's head, the operation keys are located outside the user's field of view. For this reason, the user cannot visually recognize the position of the desired operation key, and it is difficult for the user to perform the desired operation or to perform an erroneous operation.
 そこで、本開示では、装着型装置の操作部がユーザの視界外に位置する場合における操作性を向上させることが可能な、新規かつ改良された装着型装置、情報処理方法、およびプログラムを提案する。 Therefore, the present disclosure proposes a new and improved wearable device, information processing method, and program capable of improving operability when the operation unit of the wearable device is located outside the user's field of view. .
 本開示によれば、装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部と、前記操作部に対する操作に関する情報を表示部に表示させる表示制御部と、を備える、装着型装置が提供される。 According to the present disclosure, when the wearable device is worn by a user, an operation unit disposed outside the user's field of view, and a display control unit that displays information related to operations on the operation unit on the display unit, A wearable device is provided.
 また、本開示によれば、装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部に対する操作に関する情報を表示部に表示させること、を備える、情報処理方法が提供される。 According to the present disclosure, there is provided an information processing method comprising: when a wearable device is worn by a user, displaying information related to an operation on an operation unit arranged outside the user's field of view on a display unit. Provided.
 また、本開示によれば、コンピュータを、装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部に対する操作に関する情報を表示部に表示させる表示制御部、として機能させるための、プログラムが提供される。 Further, according to the present disclosure, when the wearable device is worn by a user, the computer functions as a display control unit that causes the display unit to display information related to operations on the operation unit arranged outside the user's field of view. A program is provided to make it happen.
 以上説明したように本開示によれば、装着型装置の操作部がユーザの視界外に位置する場合における操作性を向上させることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 As described above, according to the present disclosure, it is possible to improve the operability when the operation unit of the wearable device is located outside the user's field of view. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
第1の実施形態によるヘッドホン10をユーザが装着している様子を示した説明図である。It is explanatory drawing which showed a mode that the user was wearing the headphones 10 by 1st Embodiment. 同実施形態によるヘッドホン10を下から見た場合の外観を示した説明図である。FIG. 3 is an explanatory diagram showing an appearance when the headphones 10 according to the embodiment are viewed from below. 同実施形態によるヘッドホン10の右ハウジングにユーザが右手を当てている様子を示した説明図である。It is explanatory drawing which showed a mode that the user has applied the right hand to the right housing of the headphones 10 by the embodiment. 同実施形態によるヘッドホン10の右ハウジングを斜め下の方向から見た場合の外観を示した説明図である。FIG. 4 is an explanatory diagram showing an external appearance when the right housing of the headphone 10 according to the embodiment is viewed obliquely from below. 同実施形態によるヘッドホン10の投影部の構成例を示した説明図である。FIG. 4 is an explanatory diagram showing a configuration example of a projection unit of the headphones 10 according to the embodiment. 同実施形態によるヘッドホン10の内部構成を示した機能ブロック図である。2 is a functional block diagram showing an internal configuration of a headphone 10 according to the same embodiment. FIG. 同実施形態の投影部により投影される画像の例を示した説明図である。It is explanatory drawing which showed the example of the image projected by the projection part of the embodiment. ヘッドホン10のセンサに対するユーザの手の接近または接触が検出された場合における画像の投影例を示した説明図である。FIG. 6 is an explanatory diagram illustrating an example of projection of an image when a user's hand approach or contact with a sensor of the headphone is detected. ヘッドホン10のセンサに対するユーザの手の接近または接触が検出された場合における画像の別の投影例を示した説明図である。FIG. 6 is an explanatory diagram illustrating another example of projection of an image when the approach or contact of a user's hand to a sensor of the headphone is detected. ヘッドホン10のセンサに対するユーザの手の接近または接触が検出された場合における画像の別の投影例を示した説明図である。FIG. 6 is an explanatory diagram illustrating another example of projection of an image when the approach or contact of a user's hand to a sensor of the headphone is detected. ユーザが曲送り操作を行った場合における画像の投影例を示した説明図である。It is explanatory drawing which showed the example of a projection of the image when a user performs music feeding operation. 同実施形態による動作を示したフローチャートである。It is the flowchart which showed the operation | movement by the embodiment. 第2の実施形態によるHMD30をユーザが装着している様子を示した説明図である。It is explanatory drawing which showed a mode that the user was mounting | wearing with HMD30 by 2nd Embodiment. 同実施形態によるHMD30の底面の構成例を示した説明図である。It is explanatory drawing which showed the structural example of the bottom face of HMD30 by the embodiment. 同実施形態によるHMD30の操作部をユーザが操作する様子を示した説明図である。It is explanatory drawing which showed a mode that a user operated the operation part of HMD30 by the embodiment. 同実施形態によるHMD30の構成例を示した機能ブロック図である。It is the functional block diagram which showed the structural example of HMD30 by the embodiment.
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて操作部122aおよび操作部122bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、操作部122aおよび操作部122bを特に区別する必要が無い場合には、単に操作部122と称する。 In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral. For example, a plurality of configurations having substantially the same functional configuration are distinguished as the operation unit 122a and the operation unit 122b as necessary. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given. For example, when there is no need to distinguish between the operation unit 122a and the operation unit 122b, they are simply referred to as the operation unit 122.
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.背景
 2.第1の実施形態
 3.第2の実施形態
 4.変形例
Further, the “DETAILED DESCRIPTION OF THE INVENTION” will be described according to the following item order.
1. Background 2 1. First embodiment Second Embodiment 4. Modified example
<<1.背景>>
 本開示は、一例として「2.第1の実施形態」~「3.第2の実施形態」において詳細に説明するように、多様な形態で実施され得る。最初に、本開示の特徴を明確に示すために、本開示による装着型装置を創作するに至った背景について説明する。
<< 1. Background >>
The present disclosure can be implemented in various forms as described in detail in “2. First Embodiment” to “3. Second Embodiment” as an example. First, in order to clearly show the features of the present disclosure, the background that led to the creation of the wearable device according to the present disclosure will be described.
 従来、頭部に装着して音楽を聴くためのヘッドホンが各種開発されている。例えば、ヘッドホンの外部に操作部が設置されており、そして、当該操作部に対する操作により再生指示や終了指示などをユーザが行うことが可能なヘッドホンが開発されている。 Conventionally, various headphones for listening to music by wearing on the head have been developed. For example, an operation unit is installed outside the headphones, and headphones that allow a user to issue a reproduction instruction, an end instruction, or the like by operating the operation unit have been developed.
 しかしながら、このようなヘッドホンでは、装着中に操作部がユーザの視界外に位置するので、ユーザが所望の操作をしたい場合に、いずれの操作部を操作すればよいかを確認することができない。そして、ユーザが確実な操作を行うためには操作部の配置を記憶するなど、ユーザは、操作に熟練する必要がある。 However, in such headphones, since the operation unit is located outside the user's field of view during wearing, it is impossible to confirm which operation unit should be operated when the user wants to perform a desired operation. And in order for a user to perform reliable operation, the user needs to be skilled in operation, such as memorizing arrangement of an operation part.
 さらに、ユーザが操作を間違えた場合には、操作がヘッドホンに反映された後でなければ操作の誤りにユーザが気づくことができず、不便であった。例えば、曲を送ったか戻したかを、曲を再生してみなければユーザは気づくことができない。また、ユーザが初めて聞く楽曲では、楽曲の内容を知らないので、そもそも曲を送ったのか戻したのかをユーザが分からない場合があり得る。 Furthermore, if the user makes a mistake in the operation, it is inconvenient because the user cannot notice an operation error unless the operation is reflected in the headphones. For example, the user cannot recognize whether or not a song has been sent or returned without playing the song. In addition, since the music that the user listens to for the first time does not know the content of the music, the user may not know whether the music has been sent or returned in the first place.
 上記の問題を解決する方法として、操作部に対する操作時にリアクションのための効果音を鳴らす方法が考えられる。しかしながら、この方法では、操作に対して効果音を一対一対応させる必要がある。このため、ユーザが確実に操作を行うためには、操作ごとの効果音をユーザが覚える必要があるので、不便である。 As a method of solving the above problem, a method of generating a sound effect for reaction when operating the operation unit is conceivable. However, in this method, it is necessary to have a one-to-one correspondence between sound effects and operations. For this reason, in order for a user to operate reliably, since a user needs to memorize the sound effect for every operation, it is inconvenient.
 そこで、上記事情を一着眼点にして本開示による装着型装置を創作するに至った。本開示によれば、装着型装置の装着時にユーザの視界外に位置する操作部に対する操作に関する情報を表示部に表示させることにより、操作性を向上させることが可能である。以下、このような本開示の各実施形態について順次詳細に説明する。 Therefore, the wearable device according to the present disclosure has been created by focusing on the above circumstances. According to the present disclosure, it is possible to improve operability by causing the display unit to display information related to an operation on the operation unit located outside the user's field of view when the wearable device is mounted. Hereinafter, each embodiment of the present disclosure will be sequentially described in detail.
<<2.第1の実施形態>>
 <2-1.外部構成>
 まず、第1の実施形態について説明する。図1は、第1の実施形態によるヘッドホン10をユーザ2が装着している様子を示した説明図である。このヘッドホン10は、本開示における装着型装置の一例である。
<< 2. First Embodiment >>
<2-1. External configuration>
First, the first embodiment will be described. FIG. 1 is an explanatory diagram showing a state in which the user 2 is wearing the headphones 10 according to the first embodiment. This headphone 10 is an example of a wearable device according to the present disclosure.
 図1に示したように、ヘッドホン10は、右ハウジング12a、および左ハウジング12bを含む。右ハウジング12a、および左ハウジング12bは、本開示における第1ユニット、または第2ユニットの一例である。右ハウジング12aは、ユーザの右耳を覆う部分であり、また、左ハウジング12bは、ユーザの左耳を覆う部分である。ユーザは、右ハウジング12aおよび左ハウジング12bを耳に装着することにより、ヘッドホン10により出力される音を聴くことができる。 As shown in FIG. 1, the headphone 10 includes a right housing 12a and a left housing 12b. The right housing 12a and the left housing 12b are examples of the first unit or the second unit in the present disclosure. The right housing 12a is a portion that covers the user's right ear, and the left housing 12b is a portion that covers the user's left ear. The user can listen to the sound output from the headphones 10 by attaching the right housing 12a and the left housing 12b to the ear.
 また、図1に示したように、ヘッドホン10は、例えば、操作部122、および投影部126を有する。また、図1に示したように、操作部122は、ヘッドホン10を装着中にユーザの視界外に位置する。後述するように、操作部122は、ヘッドホン10を装着中にヘッドホン10に対する操作をユーザが行うための部分である。また、投影部126は、発光により画像情報を投影する部分である。例えば、図1に示したように、投影部126は、光を投射してユーザの手の平などの投影面に画像を投影することが可能である。 Further, as shown in FIG. 1, the headphones 10 include, for example, an operation unit 122 and a projection unit 126. Further, as illustrated in FIG. 1, the operation unit 122 is located outside the user's field of view while wearing the headphones 10. As will be described later, the operation unit 122 is a part for the user to operate the headphones 10 while the headphones 10 are being worn. The projection unit 126 is a part that projects image information by light emission. For example, as illustrated in FIG. 1, the projection unit 126 can project an image onto a projection surface such as a palm of a user by projecting light.
 また、図1に示したように、操作部122と投影部126とは、互いに異なるハウジング12に設置され得る。例えば、操作部122が右ハウジング12aに設置される場合には、投影部126は左ハウジング12bに設置される。かかる構成によれば、手の平を投影面とする場合、ユーザは、身体の中心線よりも右側に実装されている操作部122を右手で操作しながら、身体の中心線よりも左側に実装されている投影部126により投影される光を左手に投影させることが可能である。このため、人体の構造上、操作部122に対する操作を行いながら、ユーザは、投影される画像を容易に見ることができる。 As shown in FIG. 1, the operation unit 122 and the projection unit 126 can be installed in different housings 12. For example, when the operation unit 122 is installed in the right housing 12a, the projection unit 126 is installed in the left housing 12b. According to such a configuration, when the palm is used as the projection plane, the user is mounted on the left side of the body center line while operating the operation unit 122 mounted on the right side of the body center line with the right hand. It is possible to project the light projected by the projection unit 126 on the left hand. Therefore, the user can easily see the projected image while performing an operation on the operation unit 122 due to the structure of the human body.
 なお、上記の例に限定されず、操作部122は左ハウジング12bに設置され、かつ、投影部126は右ハウジング12aに設置されてもよい。また、操作部122および投影部126は同じハウジング12に設置されることも可能である。 The operation unit 122 may be installed in the left housing 12b, and the projection unit 126 may be installed in the right housing 12a. Further, the operation unit 122 and the projection unit 126 can be installed in the same housing 12.
 [2-1-1.操作部122]
 操作部122は、ヘッドホン10が有する各種の機能をユーザが操作するための部分である。ここで、図2を参照して、操作部122の内容について詳細に説明する。図2は、ヘッドホン10を下から見た場合の外観を示した説明図である。図2に示したように、例えば、右ハウジング12aの底面には複数の操作部122(操作キー122a、操作キー122b、および、操作キー122c)が設置され得る。
[2-1-1. Operation unit 122]
The operation unit 122 is a part for the user to operate various functions of the headphones 10. Here, the contents of the operation unit 122 will be described in detail with reference to FIG. FIG. 2 is an explanatory diagram showing an appearance when the headphones 10 are viewed from below. As shown in FIG. 2, for example, a plurality of operation units 122 (operation keys 122a, operation keys 122b, and operation keys 122c) may be installed on the bottom surface of the right housing 12a.
 (2-1-1-1.操作キー122a)
 ここで、操作キー122aは、例えば、曲の再生、一時停止、曲送り、曲戻し、音量の調節、および電話の着信などの機能に関連付けられ得る。また、操作キー122aは、例えば、十字キーやレバーなどにより構成されてもよい。
(2-1-1-1. Operation keys 122a)
Here, the operation keys 122a can be associated with functions such as playing a song, pausing, sending a song, returning a song, adjusting the volume, and receiving a call. Further, the operation key 122a may be configured by, for example, a cross key or a lever.
 例えば、図2において四方向の矢印で示したように、操作キー122aが右方向へ動かされた場合には「曲送り」、操作キー122aが左方向へ動かされた場合には「曲戻し」、操作キー122aが上方向へ動かされた場合には「音量の増大」、操作キー122aが下方向へ動かされた場合には「音量の低下」の機能がそれぞれ実行される。 For example, as indicated by the four-directional arrows in FIG. 2, “tune feed” is performed when the operation key 122a is moved rightward, and “music return” is performed when the operation key 122a is moved leftward. When the operation key 122a is moved upward, the function of “increase volume” is executed, and when the operation key 122a is moved downward, the function of “decrease volume” is executed.
 また、ユーザにより操作キー122aがプッシュされた場合には、「曲の再生」や「一時停止」の機能が実行される。また、ヘッドホン10と無線接続中である電話機(図示省略)に対して呼が発信されている間に、ユーザにより操作キー122aがプッシュされた場合には、当該電話機に対する呼が着信され、かつ、ヘッドホン10により通話可能となる。 Also, when the operation key 122a is pushed by the user, the functions of “song playback” and “pause” are executed. Further, when the user presses the operation key 122a while a call is being made to a telephone (not shown) that is wirelessly connected to the headphones 10, a call to the telephone is received, and A call can be made by the headphones 10.
 (2-1-1-2.操作キー122b)
 また、操作キー122bは、例えば、ノイズキャンセリング機能の設定や、他の装置との間での無線通信の確立などの機能に関連付けられ得る。例えば、操作キー122bがユーザによりプッシュされた場合には、ノイズキャンセリング機能のONとOFFとの間の切り替えが実行される。また、操作キー122bが長押しされた場合には、例えばBluetooth(登録商標)による他の装置との間のペアリングの確立もしくは解除が実行される。
(2-1-1-2. Operation keys 122b)
Further, the operation key 122b can be associated with functions such as setting of a noise canceling function and establishment of wireless communication with other devices, for example. For example, when the operation key 122b is pushed by the user, switching between ON and OFF of the noise canceling function is executed. Further, when the operation key 122b is pressed for a long time, for example, establishment or cancellation of pairing with another device is executed by Bluetooth (registered trademark).
 (2-1-1-3.操作キー122c)
 また、操作キー122cは、例えば、投影部126による投影のフォーカスの調整の機能に関連付けられ得る。また、操作キー122cは、例えばドラム式で構成され得る。例えば、操作キー122cがユーザにより回転されることにより、投影のフォーカスが移動される。
(2-1-1-3. Operation keys 122c)
The operation key 122c can be associated with, for example, a function of adjusting the focus of projection by the projection unit 126. Further, the operation key 122c may be configured as a drum type, for example. For example, when the operation key 122c is rotated by the user, the projection focus is moved.
 (2-1-1-4.電源操作キー122d)
 また、図2に示したように、例えば、左ハウジング12bの底面には、電源操作キー122dが設置され得る。電源操作キー122dは、ヘッドホン10の電源のONとOFFとの間の切り替えを行うためのキーである。なお、上記の例に限定されず、電源操作キー122dは、右ハウジング12aに設けられてもよい。
(2-1-1-4. Power operation key 122d)
Further, as shown in FIG. 2, for example, a power operation key 122d can be installed on the bottom surface of the left housing 12b. The power operation key 122d is a key for switching the power of the headphones 10 between ON and OFF. In addition, it is not limited to said example, 122 d of power supply operation keys may be provided in the right housing 12a.
 [2-1-2.センサ124]
 センサ124は、例えば静電容量式のタッチセンサ、または近接センサなどである。このセンサ124は、ユーザの手の接近または接触を測定する。また、センサ124は、ヘッドホン10に備えられている複数の操作部122の各々と予め関連付けられており、かつ、関連付けられている操作部122の設置位置の近傍に設置され得る。これにより、センサ124は、関連付けられている操作部122に対するユーザの手の接近または接触を測定することができる。
[2-1-2. Sensor 124]
The sensor 124 is, for example, a capacitive touch sensor or a proximity sensor. This sensor 124 measures the approach or contact of the user's hand. The sensor 124 is associated with each of the plurality of operation units 122 provided in the headphone 10 in advance, and can be installed in the vicinity of the installation position of the associated operation unit 122. Thereby, the sensor 124 can measure the approach or contact of the user's hand with respect to the associated operation unit 122.
 図3は、操作部122に対する操作を行うために、ユーザが右ハウジング12aに右手を当てている様子を示した説明図である。また、図4は、右ハウジング12aを斜め下の方向から見た場合の構成を示した説明図である。図3および図4に示したように、例えば、センサ124aは操作キー122aの近傍、センサ124bは操作キー122bの近傍、また、センサ124cは操作キー122cの近傍にそれぞれ設置され得る。このように、センサ124は、基本的には、関連付けられている操作キー122をユーザが手で触れようとする場合に触ってしまう箇所、または、ユーザの手が接近する箇所に設置される。 FIG. 3 is an explanatory diagram showing a state in which the user places the right hand on the right housing 12a in order to perform an operation on the operation unit 122. FIG. 4 is an explanatory diagram showing a configuration when the right housing 12a is viewed from an obliquely downward direction. As shown in FIGS. 3 and 4, for example, the sensor 124a can be installed near the operation key 122a, the sensor 124b can be installed near the operation key 122b, and the sensor 124c can be installed near the operation key 122c. As described above, the sensor 124 is basically installed at a location where the user touches the associated operation key 122 when the user tries to touch it or a location where the user's hand approaches.
 [2-1-3.投影部126]
 投影部126は、本開示における表示部の一例である。投影部126は、発光により画像情報を投影する。この投影部126は、例えばユーザの手の平に画像を投影することが可能であるし、または、ユーザの装着物、机上、床、壁などに画像を投影することも可能である。また、投影部126は、例えばピコプロジェクターであってもよい。
[2-1-3. Projection unit 126]
The projection unit 126 is an example of a display unit in the present disclosure. The projection unit 126 projects image information by light emission. The projection unit 126 can project an image on the palm of the user, for example, or can project an image on a user's wearing object, a desk, a floor, a wall, or the like. Further, the projection unit 126 may be a pico projector, for example.
 ここで、図5を参照して、投影部126の構成例について詳細に説明する。図5に示したように、投影部126は、例えば、LED(Light Emitting Diode)1260、コリメーターレンズ1262、LCD(Liquid Crystal Display)1264、および、凸メニスカスレンズ1266を含む。 Here, a configuration example of the projection unit 126 will be described in detail with reference to FIG. As shown in FIG. 5, the projection unit 126 includes, for example, an LED (Light Emitting Diode) 1260, a collimator lens 1262, an LCD (Liquid Crystal Display) 1264, and a convex meniscus lens 1266.
 コリメーターレンズ1262は、入射された光を平行な光線に変形するレンズである。図5に示したように、コリメーターレンズ1262は、LED1260により発光された光を平行な光線に変形する。また、LCD1264は、例えば透過型LCDである。例えば、LCD1264は、コリメーターレンズ1262を通過した光線のうち、投影対象の画像の領域だけ光を透過させる。また、凸メニスカスレンズ1266は、入射された光を発散させるレンズである。例えば、凸メニスカスレンズ1266は、LCD1264を透過した光を発散させる。そして、発散した光が投影面に投影される。 The collimator lens 1262 is a lens that transforms incident light into parallel rays. As shown in FIG. 5, the collimator lens 1262 transforms the light emitted by the LED 1260 into parallel light rays. The LCD 1264 is a transmissive LCD, for example. For example, the LCD 1264 transmits light only in the region of the image to be projected among the light rays that have passed through the collimator lens 1262. The convex meniscus lens 1266 is a lens that diverges incident light. For example, the convex meniscus lens 1266 diverges the light transmitted through the LCD 1264. Then, the diverged light is projected onto the projection surface.
 なお、投影部126による投影方法は上記の例に限定されず、例えば、レーザー光を用いた方法であってもよい。 Note that the projection method by the projection unit 126 is not limited to the above example, and for example, a method using laser light may be used.
 また、投影部126の投影方向は、例えば操作部122に対するユーザの操作に基づいて自動で調整可能であってもよいし、または、ユーザが手動で調整可能であってもよい。あるいは、投影部126の投影方向は、固定されていてもよい。 Also, the projection direction of the projection unit 126 may be automatically adjustable based on, for example, a user operation on the operation unit 122, or may be manually adjustable by the user. Alternatively, the projection direction of the projection unit 126 may be fixed.
 <2-2.内部構成>
 以上、第1の実施形態による外部構成について説明した。次に、第1の実施形態によるヘッドホン10の内部構成について詳細に説明する。図6は、第1の実施形態によるヘッドホン10の内部構成を示した機能ブロック図である。図6に示したように、ヘッドホン10は、制御部100、通信部120、操作部122、センサ124、投影部126、および音声出力部128を有する。なお、以下では、上記の説明と重複する内容については説明を省略する。
<2-2. Internal configuration>
The external configuration according to the first embodiment has been described above. Next, the internal configuration of the headphone 10 according to the first embodiment will be described in detail. FIG. 6 is a functional block diagram showing the internal configuration of the headphones 10 according to the first embodiment. As illustrated in FIG. 6, the headphone 10 includes a control unit 100, a communication unit 120, an operation unit 122, a sensor 124, a projection unit 126, and an audio output unit 128. In addition, below, description is abbreviate | omitted about the content which overlaps with said description.
 [2-2-1.制御部100]
 制御部100は、ヘッドホン10に内蔵されるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)などのハードウェアを用いて、ヘッドホン10の動作を全般的に制御する。また、図6に示したように、制御部100は、検出部102、および、表示制御部104を有する。
[2-2-1. Control unit 100]
The control unit 100 generally controls the operation of the headphones 10 using hardware such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) built in the headphones 10. As shown in FIG. 6, the control unit 100 includes a detection unit 102 and a display control unit 104.
 [2-2-2.検出部102]
 検出部102は、センサ124による測定結果に基づいて、センサ124に関連付けられている操作部122に対するユーザの手の接近または接触を検出する。例えば、検出部102は、複数のセンサ124による測定結果に基づいて、複数のセンサ124の各々に関連付けられている各操作部122に対するユーザの手の接近または接触を同時に検出する。
[2-2-2. Detection unit 102]
The detection unit 102 detects the approach or contact of the user's hand with respect to the operation unit 122 associated with the sensor 124 based on the measurement result by the sensor 124. For example, the detection unit 102 simultaneously detects the approach or contact of the user's hand to each operation unit 122 associated with each of the plurality of sensors 124 based on the measurement results of the plurality of sensors 124.
 かかる構成によれば、ユーザが操作部122を操作する前に、ユーザが操作しようとしている操作部122がいずれであるかを検出することができる。 According to such a configuration, before the user operates the operation unit 122, it is possible to detect which operation unit 122 the user is trying to operate.
 [2-2-3.表示制御部104]
 (2-2-3-1.表示制御例1)
 表示制御部104は、操作部122に対するユーザの手の接近または接触が検出部102により検出された場合に、操作部122に関連付けられた機能を示す情報を投影部126に投影させる。
[2-2-3. Display control unit 104]
(2-2-3-1. Display control example 1)
The display control unit 104 causes the projection unit 126 to project information indicating a function associated with the operation unit 122 when the detection unit 102 detects the approach or contact of the user's hand to the operation unit 122.
 図7は、投影部126により投影される画像の一例(画像20)を示した説明図である。図7に示したように、画像20は、各操作キー122に関連付けられた機能を示す表示を含む。例えば、画像20は、曲の再生、一時停止、曲送り、曲戻し、音量の調整、通話ボタン、無線通信の接続表示、ノイズキャンセル機能の状態表示、投影部126によるフォーカス量の表示、音量の表示、および、バッテリー残量の表示などを含む。 FIG. 7 is an explanatory diagram showing an example (image 20) of an image projected by the projection unit 126. As shown in FIG. 7, the image 20 includes a display showing the function associated with each operation key 122. For example, the image 20 is a song playback, pause, song advance, song return, volume adjustment, call button, wireless communication connection display, noise cancel function status display, focus amount display by the projection unit 126, volume control Includes display and battery level display.
 なお、図7に示したように、例えば、画像20における上方には、操作部122aに関連付けられた複数の機能の表示群、画像20における中央付近には、操作部122bに関連付けられた複数の機能の表示群、また、画像20における下方には、操作部122cに関連付けられた機能の表示群が、それぞれ纏めて表示され得る。また、画像20における右側には、例えば音量の設定値やバッテリー残量などの、ヘッドホン10の状態を示す表示群が表示され得る。 As illustrated in FIG. 7, for example, a display group of a plurality of functions associated with the operation unit 122 a is above the image 20, and a plurality of functions associated with the operation unit 122 b are near the center of the image 20. The function display group and the function display group associated with the operation unit 122c may be displayed together below the image 20, respectively. Further, on the right side of the image 20, a display group indicating the state of the headphones 10 such as a set value of a volume and a remaining battery level can be displayed.
 (2-2-3-2.表示制御例2)
 より具体的には、表示制御部104は、ユーザの手の接近または接触が検出された操作部122に関連付けられた機能を示す情報を投影部126に投影させる。例えば、ユーザの手の接近または接触が検出された操作部122が複数存在する場合には、表示制御部104は、当該複数の操作部122のうち最も優先度の高い操作部122に関連付けられた機能を示す情報を投影部126に投影させ、かつ、他の操作部122に関連付けられた機能を示す情報を投影部126に投影させない。
(2-2-3-2. Display control example 2)
More specifically, the display control unit 104 causes the projection unit 126 to project information indicating a function associated with the operation unit 122 in which the approach or contact of the user's hand is detected. For example, when there are a plurality of operation units 122 in which the approach or contact of the user's hand is detected, the display control unit 104 is associated with the operation unit 122 having the highest priority among the plurality of operation units 122. The information indicating the function is projected on the projection unit 126, and the information indicating the function associated with the other operation unit 122 is not projected on the projection unit 126.
 ここで、図8~図10を参照して上記の機能についてさらに詳細に説明する。なお、ここでは、優先度の高い順が操作キー122a、操作キー122b、操作キー122cの順であるように、各操作部122の優先度が定められていることを前提とする。 Here, the above functions will be described in more detail with reference to FIGS. Here, it is assumed that the priority of each operation unit 122 is determined so that the order of priority is the operation key 122a, the operation key 122b, and the operation key 122c.
 例えば、操作キー122a、操作キー122b、および操作キー122cの3個の操作部122に対するユーザの手の接近または接触が検出されている場合には、表示制御部104は、図8に示したように、(優先度が最も高い)操作キー122aに関連付けられた機能の表示群220aを投影部126に投影させ、かつ、操作キー122bに関連付けられた機能の表示群220bと、操作キー122cに関連付けられた機能の表示群220cとを投影部126に投影させない。 For example, when the approach or contact of the user's hand to the three operation units 122 of the operation key 122a, the operation key 122b, and the operation key 122c is detected, the display control unit 104 is as shown in FIG. In addition, the function display group 220a associated with the operation key 122a (having the highest priority) is projected onto the projection unit 126, and the function display group 220b associated with the operation key 122b is associated with the operation key 122c. The projection unit 126 is not allowed to project the display group 220c having the function thus obtained.
 なお、この場合、ヘッドホン10は、操作キー122aに対するユーザの操作のみを受け付け、操作キー122bおよび操作キー122cに対するユーザの操作は受け付けないことが可能である。そして、仮に操作キー122bもしくは操作キー122cがユーザにより操作されたことが検出された場合には、表示制御部104は、例えばユーザが操作した操作キーの種類を示す表示を(リアクションとして)投影部126に投影させることが可能である。この投影例によれば、ユーザが操作したキーが何だったのかをユーザが理解できるので、ユーザがストレスを感じることがない。 In this case, the headphones 10 can accept only the user's operation on the operation key 122a, and can not accept the user's operation on the operation key 122b and the operation key 122c. If it is detected that the operation key 122b or the operation key 122c is operated by the user, for example, the display control unit 104 displays a display indicating the type of the operation key operated by the user (as a reaction). 126 can be projected. According to this projection example, since the user can understand what the key operated by the user is, the user does not feel stress.
 あるいは、ヘッドホン10は、操作キー122bまたは操作キー122cに対するユーザの操作を受け付け可能であってもよい。 Alternatively, the headphones 10 may be able to accept a user operation on the operation key 122b or the operation key 122c.
 また、操作キー122bおよび操作キー122cの2個の操作部122に対するユーザの手の接近または接触が検出されている場合には、表示制御部104は、図9に示したように、(優先度がより高い)操作キー122bに関連付けられた機能の表示群220bを投影部126に投影させ、かつ、操作キー122cに関連付けられた機能の表示群220cを投影部126に投影させない。 When the approach or contact of the user's hand with respect to the two operation units 122 of the operation key 122b and the operation key 122c is detected, the display control unit 104, as shown in FIG. The display group 220b of the function associated with the operation key 122b is projected onto the projection unit 126, and the display group 220c of the function associated with the operation key 122c is not projected onto the projection unit 126.
 なお、この場合、ヘッドホン10は、操作キー122bに対するユーザの操作のみを受け付け、操作キー122cに対するユーザの操作は受け付けないことが可能である。そして、仮に操作キー122cがユーザにより操作されたことが検出された場合には、表示制御部104は、例えばユーザが操作した操作キーの種類(つまり操作キー122c)を示す表示を(リアクションとして)投影部126に投影させることが可能である。あるいは、ヘッドホン10は、操作キー122cに対するユーザの操作を受け付け可能であってもよい。 In this case, the headphones 10 can accept only the user's operation on the operation key 122b, and can not accept the user's operation on the operation key 122c. If it is detected that the operation key 122c is operated by the user, for example, the display control unit 104 displays a display indicating the type of the operation key operated by the user (that is, the operation key 122c) (as a reaction). The projection unit 126 can project the image. Alternatively, the headphones 10 may be able to accept user operations on the operation keys 122c.
 また、ユーザの手の接近または接触が検出されている操作部122が操作キー122cだけである場合には、表示制御部104は、図10に示したように、操作キー122cに関連付けられた機能の表示群220cを投影部126に投影させる。 Further, when the operation unit 122 in which the approach or contact of the user's hand is detected is only the operation key 122c, the display control unit 104 has a function associated with the operation key 122c as illustrated in FIG. The display group 220c is projected on the projection unit 126.
 上記の投影例によれば、ユーザが今触れている操作部122により何の機能を操作できるのか(また、何の機能を操作できないのか)を視覚情報として伝えることができる。 According to the above projection example, it is possible to convey as visual information what function can be operated by the operation unit 122 that the user is currently touching (and what function cannot be operated).
 なお、図8~図10に示したように、任意の一以上の操作部122に対するユーザの手の接近または接触が検出されている場合には、表示制御部104は、ヘッドホン10の状態を示す表示群222を固定的に投影部126に投影させてもよい。 As shown in FIGS. 8 to 10, when the approach or contact of the user's hand with respect to any one or more operation units 122 is detected, the display control unit 104 indicates the state of the headphones 10. The display group 222 may be fixedly projected on the projection unit 126.
 なお、複数の操作部122の各々の優先度は、例えば、所定の方向に関して端により近い位置に設置されている操作部122ほど優先度がより高くなるように定められてもよい。例えば、図3に示した例では、ヘッドホンの装着時においてより後方に位置する操作部122ほど優先度がより高くなるように優先度が定められてもよい。すなわち、図3に示した例では、操作キー122c、操作キー122b、操作キー122aの順に優先度が高くなるように、各操作部122の優先度が定められてもよい。 Note that the priority of each of the plurality of operation units 122 may be determined such that, for example, the operation unit 122 installed at a position closer to the end in a predetermined direction has a higher priority. For example, in the example illustrated in FIG. 3, the priority may be set such that the priority is higher in the operation unit 122 located further rearward when the headphones are worn. That is, in the example illustrated in FIG. 3, the priority of each operation unit 122 may be determined so that the priority becomes higher in the order of the operation key 122c, the operation key 122b, and the operation key 122a.
 (2-2-3-3.表示制御例3)
 また、表示制御部104は、ヘッドホン10における複数の操作部122の各々の設置位置に応じた表示位置に、複数の操作部122の各々に関連付けられた機能を示す情報を投影部126に投影させる。より具体的には、表示制御部104は、ヘッドホン10における複数の操作部122の各々の設置位置の順序関係と、複数の操作部122の各々に関連付けられた機能を示す情報の表示位置の順序関係とが一致するように、複数の操作部122の各々に関連付けられた機能を示す情報を投影部126に投影させる。
(2-2-3-3. Display control example 3)
Further, the display control unit 104 causes the projection unit 126 to project information indicating a function associated with each of the plurality of operation units 122 at a display position corresponding to each installation position of the plurality of operation units 122 in the headphone 10. . More specifically, the display control unit 104 determines the order relationship between the installation positions of the plurality of operation units 122 in the headphones 10 and the display position order of information indicating the functions associated with each of the plurality of operation units 122. The projection unit 126 is caused to project information indicating the function associated with each of the plurality of operation units 122 so that the relationship matches.
 例えば、複数の操作部122が上下方向に並んで設置されている場合には、より上方に設置されている操作部122に関連付けられた機能を示す情報ほど表示位置がより上方になるように、操作部122の各々に関連付けられた機能を示す情報を投影部126に投影させる。また、複数の操作部122が左右方向に並んで設置されている場合には、より右方に設置されている操作部122に関連付けられた機能を示す情報ほど表示位置がより右方になるように、操作部122の各々に関連付けられた機能を示す情報を投影部126に投影させる。 For example, when a plurality of operation units 122 are installed side by side in the vertical direction, information indicating a function associated with the operation unit 122 installed at a higher position is displayed at a higher position. Information indicating a function associated with each of the operation units 122 is projected on the projection unit 126. In addition, when a plurality of operation units 122 are installed side by side in the left-right direction, the information indicating the function associated with the operation unit 122 installed on the right side is such that the display position is on the right side. In addition, information indicating the function associated with each of the operation units 122 is projected on the projection unit 126.
 また、図3に示したように、複数の操作部122のうち少なくとも一以上がヘッドホン10の後部側、すなわち装着時におけるユーザの頭部の後ろ側に位置する場合には、表示制御部104は、複数の操作部122のうちヘッドホン10においてより後部側に位置する操作部122に関連付けられた機能を示す情報ほど、表示領域における表示位置がより上方側になるように投影部126に投影させる。 As shown in FIG. 3, when at least one of the plurality of operation units 122 is located on the rear side of the headphones 10, that is, on the rear side of the user's head when worn, the display control unit 104 is Of the plurality of operation units 122, the information indicating the function associated with the operation unit 122 located on the rear side of the headphones 10 is projected onto the projection unit 126 so that the display position in the display area is on the upper side.
 ここで、上記の機能についてより詳細に説明する。図3に示した例では、操作キー122c、操作キー122b、操作キー122aの順により後ろに位置するように、各操作部122は、ヘッドホン10に設置されている。そこで、表示制御部104は、例えば図8~図10に示したように、操作キー122cに関連付けられた機能の表示群220c、操作キー122bに関連付けられた機能の表示群220b、操作キー122aに関連付けられた機能の表示群220aの順に、表示領域における表示位置がより上方になるように投影部126に投影させる。この表示例によれば、ユーザがヘッドホン10の後ろから前に向けて指を滑らせたときに触れる各操作部122の順番に合わせて、各操作部122に関連付けられた情報を順次下方に表示させることができる。その結果、ユーザは、投影される画像の遷移を見ることにより、実際の各操作部122の配置をイメージすることができ、操作がより容易になる。 Here, the above functions will be described in more detail. In the example illustrated in FIG. 3, each operation unit 122 is installed in the headphone 10 so that the operation key 122 c, the operation key 122 b, and the operation key 122 a are positioned behind in this order. Therefore, for example, as shown in FIGS. 8 to 10, the display control unit 104 displays the function display group 220c associated with the operation key 122c, the function display group 220b associated with the operation key 122b, and the operation key 122a. In order of the display group 220a of the associated functions, the projection unit 126 projects the display position so that the display position in the display area is higher. According to this display example, information associated with each operation unit 122 is sequentially displayed downward in accordance with the order of each operation unit 122 that is touched when the user slides his / her finger forward from behind the headphones 10. Can be made. As a result, the user can imagine the actual arrangement of each operation unit 122 by viewing the transition of the projected image, and the operation becomes easier.
 (2-2-3-4.表示制御例4)
 また、表示制御部104は、操作部122に対する操作が行われた場合には、該当の操作部122に関連付けられた機能を示す情報を強調して表示させることも可能である。例えば、表示制御部104は、上記の場合には、該当の操作部122に関連付けられた機能を示す表示を点滅させたり、一時的に色を変えたり、または一時的に明るく表示させる。
(2-2-3-4. Display control example 4)
Further, when an operation is performed on the operation unit 122, the display control unit 104 can also highlight and display information indicating a function associated with the operation unit 122. For example, in the above case, the display control unit 104 causes the display indicating the function associated with the corresponding operation unit 122 to blink, temporarily change the color, or temporarily display brightly.
 例えば、操作部122に対して「曲送り」に対応する操作がユーザにより行われた場合には、図11において網掛けで示したように、表示制御部104は、投影される画像24のうち「曲送り」に対応する表示を点滅させて投影部126に投影させる。この投影例によれば、ユーザが行った操作の内容を、操作の直後にユーザは視覚的に確認することができる。 For example, when an operation corresponding to “music feed” is performed on the operation unit 122 by the user, the display control unit 104 of the projected image 24, as shown by hatching in FIG. 11. The display corresponding to “tune feed” is blinked and projected on the projection unit 126. According to this projection example, the user can visually confirm the contents of the operation performed by the user immediately after the operation.
 [2-2-4.通信部120]
 通信部120は、有線または無線により接続された他の装置との間で情報の送受信を行う。例えば、通信部120は、他の装置から音情報を受信する。
[2-2-4. Communication unit 120]
The communication unit 120 transmits and receives information to and from other devices connected by wire or wireless. For example, the communication unit 120 receives sound information from another device.
 [2-2-5.音声出力部128]
 音声出力部128は、制御部100の制御に従って、音声を出力する。例えば、音声出力部128は、操作部122に対する操作に基づいて選択された音楽情報を音波に変換し、出力する。
[2-2-5. Audio output unit 128]
The sound output unit 128 outputs sound according to the control of the control unit 100. For example, the audio output unit 128 converts music information selected based on an operation on the operation unit 122 into a sound wave and outputs the sound wave.
 なお、その他の構成要素の機能については、2-1節の説明と概略同様である。 The functions of other components are the same as described in section 2-1.
 <2-3.動作>
 以上、第1の実施形態による内部構成について説明した。続いて、第1の実施形態による動作について、図12を参照して説明する。なお、ここでは、「センサA」、「センサB」、および「センサC」の3個のセンサ124がヘッドホン10に設置されていること、および、センサAに関連付けられた操作部122a、センサBに関連付けられた操作部122b、および、センサCに関連付けられた操作部122cの3個の操作部122がヘッドホン10に設置されていることを前提とする。また、優先度の高い順が操作部122a、操作部122b、操作部122cの順であるように、各操作部122の優先度が定められていることを前提とする。
<2-3. Operation>
The internal configuration according to the first embodiment has been described above. Next, the operation according to the first embodiment will be described with reference to FIG. Here, the three sensors 124 of “sensor A”, “sensor B”, and “sensor C” are installed in the headphones 10, and the operation unit 122 a and sensor B associated with the sensor A are used. It is assumed that the three operation units 122, that is, the operation unit 122 b associated with, and the operation unit 122 c associated with the sensor C are installed in the headphones 10. Also, it is assumed that the priority of each operation unit 122 is determined so that the order of priority is the operation unit 122a, the operation unit 122b, and the operation unit 122c.
 図12は、第1の実施形態による動作例を示したフローチャートである。図12に示したように、まず、ユーザは、ヘッドホン10の電源操作キー122dをプッシュすることにより、ヘッドホン10の電源を「ON」にする(S101)。 FIG. 12 is a flowchart showing an operation example according to the first embodiment. As shown in FIG. 12, first, the user turns on the power of the headphones 10 by pushing the power operation key 122d of the headphones 10 (S101).
 その後、ヘッドホン10の検出部102は、3個のセンサ124のうち「ON」になっているセンサ124があるか否か、つまりユーザの手が接近または接触しているセンサ124があるか否かを確認する(S103)。全てのセンサ124が「OFF」である場合には(S103:No)、検出部102は、例えば所定時間経過後に、再びS103の動作を行う。 Thereafter, the detection unit 102 of the headphone 10 determines whether or not there is a sensor 124 that is “ON” among the three sensors 124, that is, whether or not there is a sensor 124 that is approaching or touching the user's hand. Is confirmed (S103). When all the sensors 124 are “OFF” (S103: No), the detection unit 102 performs the operation of S103 again after a predetermined time, for example.
 一方、「ON」になっているセンサ124がある場合には(S103:Yes)、次に、検出部102は、センサAが「ON」になっているか否かを確認する(S105)。センサAが「ON」である場合には(S105:Yes)、表示制御部104は、センサAに関連付けられた操作部122aにより操作可能な機能を示す表示群のみを投影部126に投影させる(S107)。その後、ヘッドホン10は、後述するS115の動作を行う。 On the other hand, when there is a sensor 124 that is “ON” (S103: Yes), the detection unit 102 confirms whether or not the sensor A is “ON” (S105). When the sensor A is “ON” (S105: Yes), the display control unit 104 causes the projection unit 126 to project only the display group indicating the functions operable by the operation unit 122a associated with the sensor A ( S107). Thereafter, the headphones 10 perform an operation of S115 described later.
 一方、センサAが「OFF」である場合には(S105:No)、次に、検出部102は、センサBが「ON」になっているか否かを確認する(S109)。センサBが「ON」である場合には(S109:Yes)、表示制御部104は、センサBに関連付けられた操作部122bにより操作可能な機能を示す表示群のみを投影部126に投影させる(S111)。その後、ヘッドホン10は、後述するS115の動作を行う。 On the other hand, when the sensor A is “OFF” (S105: No), the detection unit 102 confirms whether the sensor B is “ON” (S109). When the sensor B is “ON” (S109: Yes), the display control unit 104 causes the projection unit 126 to project only a display group indicating a function operable by the operation unit 122b associated with the sensor B ( S111). Thereafter, the headphones 10 perform an operation of S115 described later.
 一方、センサBが「OFF」である場合には(S109:No)、表示制御部104は、センサCに関連付けられた操作部122cにより操作可能な機能を示す表示群のみを投影部126に投影させる(S113)。 On the other hand, when the sensor B is “OFF” (S109: No), the display control unit 104 projects only the display group indicating the functions operable by the operation unit 122c associated with the sensor C onto the projection unit 126. (S113).
 その後、ヘッドホン10の検出部102は、3個のセンサ124の測定結果を監視し、そして、3個のセンサ124のうち少なくとも一つが一定時間以内に「ON」になったか否かを判定する(S115)。少なくとも一つのセンサ124が一定時間以内に「ON」になった場合には(S115:Yes)、ヘッドホン10は、再びS105の動作を行う。 Thereafter, the detection unit 102 of the headphone 10 monitors the measurement results of the three sensors 124 and determines whether at least one of the three sensors 124 is “ON” within a certain time ( S115). If at least one sensor 124 is “ON” within a certain time (S115: Yes), the headphones 10 performs the operation of S105 again.
 一方、全てのセンサ124が「OFF」のまま一定時間が経過した場合には(S115:No)、表示制御部104は、画像の投影を投影部126に終了させる(S117)。その後、ヘッドホン10は、再びS103の動作を行う。 On the other hand, when a certain time has passed with all the sensors 124 being “OFF” (S115: No), the display control unit 104 ends the projection of the image to the projection unit 126 (S117). Thereafter, the headphone 10 performs the operation of S103 again.
 <2-4.効果>
 [2-4-1.効果1]
 以上、例えば図1、図6、図12などを参照して説明したように、第1の実施形態によるヘッドホン10は、装着時においてユーザの視界外に位置する操作部122を備え、そして、操作部122に対する操作に関する情報を投影部126に投影させる。このため、ヘッドホン10の装着時において、操作部122に対する操作に関する情報をユーザが目で確認することができるので、操作性を向上させることができる。
<2-4. Effect>
[2-4-1. Effect 1]
As described above with reference to FIGS. 1, 6, and 12, for example, the headphone 10 according to the first embodiment includes the operation unit 122 that is located outside the user's field of view when worn, and the operation Projection information is projected on the projection unit 126. For this reason, when the headphone 10 is worn, the user can visually confirm information related to the operation on the operation unit 122, so that the operability can be improved.
 例えば、ヘッドホン10は、複数の操作部122の各々に関連付けられた機能を示す表示を例えばユーザの手の平などに投影部126に投影させる。このため、ヘッドホン10の装着中にユーザが所望の操作をしたい場合に、複数の操作部122のうちいずれを操作すればよいかをユーザは目で確認することができる。従って、操作に熟練していない場合であっても、ユーザは確実な操作を行うことができる。 For example, the headphone 10 causes the projection unit 126 to project a display indicating a function associated with each of the plurality of operation units 122 on, for example, the palm of the user. For this reason, when the user wants to perform a desired operation while wearing the headphones 10, the user can visually confirm which of the plurality of operation units 122 should be operated. Therefore, even if the user is not skilled in the operation, the user can perform a reliable operation.
 また、ユーザが仮に操作を間違えた場合には、操作内容がヘッドホン10に反映される前に、操作の誤りにユーザは気づくことも可能となる。例えば、曲を送ったか戻したかを、曲が再生される直前であっても、投影される画像を確認することによりユーザは気づくことができる。 In addition, if the user makes a mistake in the operation, the user can be aware of an operation error before the operation content is reflected in the headphones 10. For example, the user can notice whether or not a song has been sent or returned by checking the projected image even immediately before the song is played.
 [2-4-2.効果2]
 また、ヘッドホン10は、メニュー画面を投影部126に投影させ、そして、操作部122に対するユーザの操作に基づいてメニュー画面に対する各種の操作を実現可能とする。例えば、メニュー画面に含まれるファンクションを選択することや、複数の曲やアルバムの中から再生させる曲やアルバムを選択することなど、ユーザは、多様かつ複雑な操作を行うことができる。
[2-4-2. Effect 2]
In addition, the headphone 10 projects the menu screen on the projection unit 126, and enables various operations on the menu screen based on user operations on the operation unit 122. For example, the user can perform various and complicated operations such as selecting a function included in the menu screen and selecting a song or album to be reproduced from a plurality of songs or albums.
<<3.第2の実施形態>>
 以上、第1の実施形態について説明した。次に、第2の実施形態について説明する。後述するように、第2の実施形態によれば、(ヘッドホン10の代わりに)HMD30の装着時において、HMD30の操作部に対する操作に関する情報をHMD30に表示させることが可能である。
<< 3. Second Embodiment >>
The first embodiment has been described above. Next, a second embodiment will be described. As will be described later, according to the second embodiment, when the HMD 30 is mounted (instead of the headphones 10), it is possible to cause the HMD 30 to display information related to operations on the operation unit of the HMD 30.
 <3-1.外部構成>
 まず、第2の実施形態によるHMD30の外部構成について説明する。図13は、HMD30をユーザが装着している様子を示した説明図である。このHMD30は、本開示における装着型装置の一例である。図13に示したように、ユーザ2は、HMD30を頭部に装着することにより、HMD30により表示される映像を視聴することができる。
<3-1. External configuration>
First, the external configuration of the HMD 30 according to the second embodiment will be described. FIG. 13 is an explanatory view showing a state in which the user wears the HMD 30. The HMD 30 is an example of a wearable device according to the present disclosure. As illustrated in FIG. 13, the user 2 can view the video displayed by the HMD 30 by wearing the HMD 30 on the head.
 また、図14は、HMD30の底面の構成例を示した説明図である。図14に示したように、HMD30の底面には、複数の操作部322が設置されている。この操作部322は、HMD30を装着中にユーザの視界外に位置し、かつ、HMD30が有する各種の機能をユーザが操作するための部分である。例えば、図13および図15に示したように、ユーザはHMD30を両手で掴んだ状態で、例えば親指で操作部322をプッシュすることなどにより、操作部322に対する操作を行うことができる。 FIG. 14 is an explanatory view showing a configuration example of the bottom surface of the HMD 30. As shown in FIG. 14, a plurality of operation units 322 are installed on the bottom surface of the HMD 30. The operation unit 322 is a part that is located outside the user's field of view while the HMD 30 is being worn, and for the user to operate various functions of the HMD 30. For example, as shown in FIGS. 13 and 15, the user can operate the operation unit 322 by holding the HMD 30 with both hands and pushing the operation unit 322 with, for example, the thumb.
 また、図14に示したように、個々の操作部322の近傍には、センサ324が設置されている。 Further, as shown in FIG. 14, a sensor 324 is installed in the vicinity of each operation unit 322.
 なお、HMD30を手で掴んだ場合、親指が届く範囲はHMD30の外周から内側に向かってのみである。そこで、複数の操作部322の各々の優先度は、HMD30の中心に近い操作部322ほど優先度がより高くなるように定められ得る。例えば、図14に示した例では、操作部322c、操作部322b、操作部322aの順に優先度が高くなるように、優先度が定められる。 In addition, when the HMD 30 is grasped by hand, the range that the thumb can reach is only from the outer periphery of the HMD 30 toward the inside. Therefore, the priority of each of the plurality of operation units 322 can be determined such that the priority is higher in the operation unit 322 closer to the center of the HMD 30. For example, in the example illustrated in FIG. 14, the priority is determined so that the priority becomes higher in the order of the operation unit 322c, the operation unit 322b, and the operation unit 322a.
 <3-2.内部構成>
 以上、第2の実施形態による外部構成について説明した。次に、第2の実施形態によるHMD30の内部構成について詳細に説明する。図16は、HMD30の内部構成を示した機能ブロック図である。図16に示したように、HMD30は、制御部300、通信部320、操作部322、センサ324、表示部326、および音声出力部328を有する。なお、通信部320、操作部322、センサ324、および音声出力部328の機能については、それぞれ第1の実施形態による通信部120、操作部122、センサ124、または音声出力部128と概略同様である。
<3-2. Internal configuration>
The external configuration according to the second embodiment has been described above. Next, the internal configuration of the HMD 30 according to the second embodiment will be described in detail. FIG. 16 is a functional block diagram showing the internal configuration of the HMD 30. As illustrated in FIG. 16, the HMD 30 includes a control unit 300, a communication unit 320, an operation unit 322, a sensor 324, a display unit 326, and an audio output unit 328. The functions of the communication unit 320, the operation unit 322, the sensor 324, and the voice output unit 328 are substantially the same as those of the communication unit 120, the operation unit 122, the sensor 124, and the voice output unit 128 according to the first embodiment, respectively. is there.
 [3-2-1.制御部300]
 制御部300は、HMD30に内蔵されるCPU、RAM、ROMなどのハードウェアを用いて、HMD30の動作を全般的に制御する。また、図16に示したように、制御部300は、検出部302、および、表示制御部304を有する。なお、検出部302の機能については、第1の実施形態による検出部102と概略同様である。
[3-2-1. Control unit 300]
The control unit 300 generally controls the operation of the HMD 30 using hardware such as a CPU, RAM, and ROM built in the HMD 30. Further, as illustrated in FIG. 16, the control unit 300 includes a detection unit 302 and a display control unit 304. The function of the detection unit 302 is substantially the same as that of the detection unit 102 according to the first embodiment.
 [3-2-2.表示制御部304]
 表示制御部304は、操作部322に対するユーザの手の接近または接触が検出部302により検出された場合に、操作部322に対する操作に関する情報を表示部326に表示させる。なお、投影部126の代わりに表示部326に対して制御を行う点以外に関しては、表示制御部304の具体的な機能は、第1の実施形態による表示制御部104と概略同様である。
[3-2-2. Display control unit 304]
The display control unit 304 causes the display unit 326 to display information related to the operation on the operation unit 322 when the detection unit 302 detects the approach or contact of the user's hand to the operation unit 322. Note that the specific functions of the display control unit 304 are substantially the same as those of the display control unit 104 according to the first embodiment, except that the display unit 326 is controlled instead of the projection unit 126.
 [3-2-3.表示部326]
 表示部326は、例えばLCDや、OLED(Organic Light Emitting Diode)などの発光型ディスプレイにより構成される。この表示部326は、表示制御部304の制御に従って、映像や画像などを表示する。
[3-2-3. Display unit 326]
The display unit 326 is configured by a light emitting display such as an LCD or an OLED (Organic Light Emitting Diode). The display unit 326 displays video, images, and the like under the control of the display control unit 304.
 <3-3.動作>
 以上、第2の実施形態による内部構成について説明した。なお、第2の実施形態による動作は、図12に示した第1の実施形態による動作と概略同様である。
<3-3. Operation>
The internal configuration according to the second embodiment has been described above. The operation according to the second embodiment is substantially the same as the operation according to the first embodiment shown in FIG.
 <3-4.効果>
 以上、例えば図13、図16などを参照して説明したように、第2の実施形態によるHMD30は、装着時においてユーザの視界外に位置する操作部322を備え、そして、操作部322に対する操作に関する情報を表示部326に表示させる。このため、第1の実施形態と同様の効果が得られる。
<3-4. Effect>
As described above with reference to FIGS. 13 and 16, for example, the HMD 30 according to the second embodiment includes the operation unit 322 located outside the user's field of view when worn, and the operation on the operation unit 322. The display unit 326 is caused to display information regarding the above. For this reason, the effect similar to 1st Embodiment is acquired.
 また、HMD30は、機器の構成上、表示部326(ディスプレイ)を有するので、第1の実施形態と比べて投影部126を備える必要がないという利点がある。 Further, since the HMD 30 includes the display unit 326 (display) in terms of the configuration of the device, there is an advantage that it is not necessary to include the projection unit 126 as compared with the first embodiment.
<<4.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<< 4. Modification >>
The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present disclosure belongs can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present disclosure.
 <4-1.変形例1>
 [4-1-1.装置例1]
 上述した各実施形態では、本開示による装着型装置が、ヘッドホン10またはHMD30である例について説明したが、本開示はかかる例に限定されない。例えば、当該装着型装置は、サラウンドヘッドホンのような、テレビジョン受像機などの表示装置と連携して動作させる装置であってもよい。
<4-1. Modification 1>
[4-1-1. Device example 1]
In each of the embodiments described above, an example in which the wearable device according to the present disclosure is the headphone 10 or the HMD 30 has been described, but the present disclosure is not limited to such an example. For example, the wearable device may be a device that operates in cooperation with a display device such as a television receiver, such as surround headphones.
 この変形例1によるサラウンドヘッドホンは、装着時においてユーザの視界外に位置する操作部を備え、そして、当該操作部に対する操作に関する情報を表示装置に表示させる。このため、変形例1によれば、第1の実施形態と同様の効果が得られる。 The surround headphone according to the first modification includes an operation unit located outside the user's field of view when worn, and displays information related to operations on the operation unit on the display device. For this reason, according to the modification 1, the effect similar to 1st Embodiment is acquired.
 [4-1-2.装置例2]
 または、本開示による装着型装置は、アクションカムを備えるヘルメットであってもよいし、または、眼鏡型コンピュータであってもよい。
[4-1-2. Device example 2]
Alternatively, the wearable device according to the present disclosure may be a helmet equipped with an action cam, or may be a glasses-type computer.
 <4-2.変形例2>
 また、上述した各実施形態では、操作部を有する装着型装置をユーザが装着した状態で操作部に対する操作をユーザが行う場合における適用例について説明したが、本開示はかかる例に限定されない。例えば、装着型装置以外の装置が有する操作部に対してユーザが操作を行おうとする際に操作部がユーザの視界外に位置するような場面にも本開示は適用可能である。
<4-2. Modification 2>
Moreover, although each embodiment mentioned above demonstrated the application example in case a user performs operation with respect to an operation part in the state with which the wearable apparatus which has an operation part was mounted | worn, this indication is not limited to this example. For example, the present disclosure can also be applied to a scene in which the operation unit is located outside the user's field of view when the user attempts to perform an operation on an operation unit included in a device other than the wearable device.
 一例として、ユーザが自動車を運転している間に、自動車に設置されている操作部に対するユーザの手の接近または接触が検出された場合には、当該操作部の機能を示す表示を例えばフロントガラスなどに表示させることも可能である。または、医者が手術を行っている間に、例えば内視鏡などの手術用器具に対するユーザの手の接近または接触が検出された場合には、当該手術用器具の状態に関する情報をプロジェクタに投影させてもよい。または、工場において作業員が作業を行っている間に、ユーザの視界外にある作業用器具に対するユーザの手の接近または接触が検出された場合には、当該作業用器具に関する情報をプロジェクタに投影させてもよい。 As an example, when the user's hand approaching or touching the operation unit installed in the vehicle is detected while the user is driving the vehicle, a display indicating the function of the operation unit is displayed, for example, on the windshield. It is also possible to display them. Alternatively, if the approach or contact of the user's hand to a surgical instrument such as an endoscope is detected while the doctor is performing an operation, information on the state of the surgical instrument is projected onto the projector. May be. Alternatively, when the approach or contact of the user's hand to the work tool outside the user's field of view is detected while the worker is working in the factory, information on the work tool is projected onto the projector. You may let them.
 <4-3.変形例3>
 また、上述した各実施形態では、操作キーに対してユーザが直接操作を行う場合における適用例について説明したが、本開示はかかる例に限定されない。例えば、ジェスチャーセンサー(図示省略)に対してユーザがジェスチャー操作を行う場面にも本開示は適用可能である。一例として、ジェスチャーセンサーの前でユーザが所定のジェスチャー操作を行ったことがジェスチャーセンサーにより検出された場合には、検出されたジェスチャー操作に予め関連付けられた機能を示す表示をプロジェクタに投影させてもよい。
<4-3. Modification 3>
Moreover, although each embodiment mentioned above demonstrated the application example in case a user directly operates with respect to an operation key, this indication is not limited to this example. For example, the present disclosure can be applied to a scene where a user performs a gesture operation on a gesture sensor (not shown). As an example, when the gesture sensor detects that the user has performed a predetermined gesture operation in front of the gesture sensor, a display indicating a function previously associated with the detected gesture operation may be projected on the projector. Good.
 <4-4.変形例4>
 また、上述した各実施形態によれば、例えばCPU、ROM、およびRAMなどのハードウェアを、上述したヘッドホン10またはHMD30の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
<4-4. Modification 4>
Moreover, according to each embodiment mentioned above, the computer program for making hardware, such as CPU, ROM, RAM, etc. exhibit the function equivalent to each structure of the headphones 10 or HMD30 mentioned above can also be provided. A recording medium on which the computer program is recorded is also provided.
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部と、
 前記操作部に対する操作に関する情報を表示部に表示させる表示制御部と、
を備える、装着型装置。
(2)
 前記操作に関する情報は、前記操作部に関連付けられた機能を示す情報を含む、前記(1)に記載の装着型装置。
(3)
 前記装着型装置は、前記操作部に対する前記ユーザの手の接近または接触を検出する検出部をさらに備え、
 前記表示制御部は、前記検出部による検出結果に基づいて、前記操作に関する情報を前記表示部に表示させる、前記(2)に記載の装着型装置。
(4)
 前記装着型装置は、複数の前記操作部を有し、
 前記表示制御部は、前記複数の操作部のうち前記ユーザの手の接近または接触が検出された操作部に対する前記操作に関する情報を前記表示部に表示させる、前記(3)に記載の装着型装置。
(5)
 前記複数の操作部のうち前記ユーザの手の接近または接触が検出された操作部が複数存在する場合には、前記表示制御部は、前記ユーザの手の接近または接触が検出された複数の操作部のうち最も優先度の高い操作部に対する前記操作に関する情報を前記表示部に表示させ、かつ、他の操作部に対する前記操作に関する情報を前記表示部に表示させない、前記(4)に記載の装着型装置。
(6)
 前記装着型装置は、複数の前記操作部を有し、
 前記表示制御部は、前記装着型装置における前記複数の操作部の各々の設置位置に応じた表示位置に、前記複数の操作部の各々に対する前記操作に関する情報を表示させる、前記(2)~(5)のいずれか一項に記載の装着型装置。
(7)
 前記表示制御部は、前記装着型装置における前記複数の操作部の各々の設置位置の順序関係と、前記複数の操作部の各々に対する前記操作に関する情報の表示位置の順序関係とが一致するように、前記複数の操作部の各々に対する前記操作に関する情報を表示させる、前記(6)に記載の装着型装置。
(8)
 前記表示制御部は、前記複数の操作部のうち前記装着型装置の後部側に位置する操作部ほど、表示領域の上方側に前記操作に関する情報を表示させる、前記(7)に記載の装着型装置。
(9)
 前記ユーザの頭部に前記装着型装置が装着されたときに、前記複数の操作部のうち少なくとも一以上は、前記ユーザの頭部の後ろ側に位置する、前記(8)に記載の装着型装置。
(10)
 前記装着型装置は、一方向に配列された複数の前記操作部を有し、
 前記複数の操作部の各々には、表示の優先度が定められており、
 前記複数の操作部の各々の優先度は、前記一方向における端に近い操作部ほど優先度がより高くなるように定められている、前記(2)~(9)のいずれか一項に記載の装着型装置。
(11)
 前記表示部は、画像を投影する投影部である、前記(1)~(10)のいずれか一項に記載の装着型装置。
(12)
 前記装着型装置は、前記投影部をさらに備える、前記(11)に記載の装着型装置。
(13)
 前記装着型装置は、ヘッドホンである、前記(11)または(12)に記載の装着型装置。
(14)
 前記投影部は、前記ユーザもしくは前記ユーザの装着物へ画像を投影する、前記(12)または(13)に記載の装着型装置。
(15)
 前記装着型装置は、前記ユーザに前記装着型装置が装着されたときに左側に位置する第1ユニットと、右側に位置する第2ユニットとを含み、
 前記操作部は、前記第1ユニットもしくは前記第2ユニットの一方に設置されており、
 前記投影部は、前記第1ユニットもしくは前記第2ユニットの他方に設置されている、前記(12)~(14)のいずれか一項に記載の装着型装置。
(16)
 装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部に対する操作に関する情報を表示部に表示させること、
を備える、情報処理方法。
(17)
 コンピュータを、
 装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部に対する操作に関する情報を表示部に表示させる表示制御部、
として機能させるための、プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
When the wearable device is worn by a user, an operation unit arranged outside the user's field of view;
A display control unit for displaying information on an operation on the operation unit on a display unit;
A wearable device comprising:
(2)
The wearable device according to (1), wherein the information related to the operation includes information indicating a function associated with the operation unit.
(3)
The wearable device further includes a detection unit that detects the approach or contact of the user's hand to the operation unit,
The said display control part is a wearable apparatus as described in said (2) which displays the information regarding the said operation on the said display part based on the detection result by the said detection part.
(4)
The wearable device has a plurality of the operation units,
The wearable device according to (3), wherein the display control unit causes the display unit to display information on the operation with respect to the operation unit in which the approach or contact of the user's hand is detected among the plurality of operation units. .
(5)
When there are a plurality of operation units in which the approach or contact of the user's hand is detected among the plurality of operation units, the display control unit is configured to perform a plurality of operations in which the approach or contact of the user's hand is detected. The mounting according to (4), wherein information regarding the operation with respect to the operation unit having the highest priority among the units is displayed on the display unit, and information regarding the operation with respect to another operation unit is not displayed on the display unit. Mold device.
(6)
The wearable device has a plurality of the operation units,
The display control unit displays information related to the operation on each of the plurality of operation units at a display position corresponding to an installation position of each of the plurality of operation units in the wearable device. The wearable device according to any one of 5).
(7)
The display control unit is configured so that an order relationship between the installation positions of the plurality of operation units in the wearable device matches an order relationship between display positions of information regarding the operation with respect to each of the plurality of operation units. The wearable device according to (6), wherein information related to the operation for each of the plurality of operation units is displayed.
(8)
The display control unit causes the operation unit located on the rear side of the wearable device among the plurality of operation units to display information regarding the operation on the upper side of the display area. apparatus.
(9)
The wearable die according to (8), wherein when the wearable device is worn on the user's head, at least one or more of the plurality of operation units is located on a rear side of the user's head. apparatus.
(10)
The wearable device has a plurality of the operation units arranged in one direction,
Each of the plurality of operation units has a display priority,
The priority of each of the plurality of operation units is set according to any one of (2) to (9), wherein the operation unit closer to an end in the one direction has a higher priority. Wearable device.
(11)
The wearable device according to any one of (1) to (10), wherein the display unit is a projection unit that projects an image.
(12)
The wearable device according to (11), wherein the wearable device further includes the projection unit.
(13)
The wearable device according to (11) or (12), wherein the wearable device is a headphone.
(14)
The said projection part is a wearable apparatus as described in said (12) or (13) which projects an image on the said user or the user's wearing thing.
(15)
The wearable device includes a first unit located on the left side when the wearable device is worn by the user, and a second unit located on the right side,
The operation unit is installed in one of the first unit or the second unit,
The wearable device according to any one of (12) to (14), wherein the projection unit is installed on the other of the first unit or the second unit.
(16)
When the wearable device is worn by the user, displaying information on an operation on the operation unit arranged outside the user's field of view on the display unit;
An information processing method comprising:
(17)
Computer
A display control unit for displaying information on an operation on an operation unit arranged outside the user's field of view on the display unit when the wearable device is mounted on the user;
Program to function as
10 ヘッドホン
30 HMD
100、300 制御部
102、302 検出部
104、304 表示制御部
120、320 通信部
122、322 操作部
124、324 センサ
126 投影部
128、328 音声出力部
326 表示部
10 Headphone 30 HMD
100, 300 Control unit 102, 302 Detection unit 104, 304 Display control unit 120, 320 Communication unit 122, 322 Operation unit 124, 324 Sensor 126 Projection unit 128, 328 Audio output unit 326 Display unit

Claims (17)

  1.  装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部と、
     前記操作部に対する操作に関する情報を表示部に表示させる表示制御部と、
    を備える、装着型装置。
    When the wearable device is worn by a user, an operation unit arranged outside the user's field of view;
    A display control unit for displaying information on an operation on the operation unit on a display unit;
    A wearable device comprising:
  2.  前記操作に関する情報は、前記操作部に関連付けられた機能を示す情報を含む、請求項1に記載の装着型装置。 The wearable device according to claim 1, wherein the information related to the operation includes information indicating a function associated with the operation unit.
  3.  前記装着型装置は、前記操作部に対する前記ユーザの手の接近または接触を検出する検出部をさらに備え、
     前記表示制御部は、前記検出部による検出結果に基づいて、前記操作に関する情報を前記表示部に表示させる、請求項2に記載の装着型装置。
    The wearable device further includes a detection unit that detects the approach or contact of the user's hand to the operation unit,
    The wearable device according to claim 2, wherein the display control unit causes the display unit to display information on the operation based on a detection result by the detection unit.
  4.  前記装着型装置は、複数の前記操作部を有し、
     前記表示制御部は、前記複数の操作部のうち前記ユーザの手の接近または接触が検出された操作部に対する前記操作に関する情報を前記表示部に表示させる、請求項3に記載の装着型装置。
    The wearable device has a plurality of the operation units,
    The wearable device according to claim 3, wherein the display control unit causes the display unit to display information related to the operation with respect to the operation unit in which the approach or contact of the user's hand is detected among the plurality of operation units.
  5.  前記複数の操作部のうち前記ユーザの手の接近または接触が検出された操作部が複数存在する場合には、前記表示制御部は、前記ユーザの手の接近または接触が検出された複数の操作部のうち最も優先度の高い操作部に対する前記操作に関する情報を前記表示部に表示させ、かつ、他の操作部に対する前記操作に関する情報を前記表示部に表示させない、請求項4に記載の装着型装置。 When there are a plurality of operation units in which the approach or contact of the user's hand is detected among the plurality of operation units, the display control unit is configured to perform a plurality of operations in which the approach or contact of the user's hand is detected. 5. The wearing type according to claim 4, wherein information related to the operation with respect to the operation unit having the highest priority among the units is displayed on the display unit, and information related to the operation with respect to another operation unit is not displayed on the display unit. apparatus.
  6.  前記装着型装置は、複数の前記操作部を有し、
     前記表示制御部は、前記装着型装置における前記複数の操作部の各々の設置位置に応じた表示位置に、前記複数の操作部の各々に対する前記操作に関する情報を表示させる、請求項2に記載の装着型装置。
    The wearable device has a plurality of the operation units,
    The said display control part displays the information regarding the said operation with respect to each of these operation parts in the display position according to each installation position of these operation parts in the said mounting | wearing apparatus. Wearable device.
  7.  前記表示制御部は、前記装着型装置における前記複数の操作部の各々の設置位置の順序関係と、前記複数の操作部の各々に対する前記操作に関する情報の表示位置の順序関係とが一致するように、前記複数の操作部の各々に対する前記操作に関する情報を表示させる、請求項6に記載の装着型装置。 The display control unit is configured so that an order relationship between the installation positions of the plurality of operation units in the wearable device matches an order relationship between display positions of information regarding the operation with respect to each of the plurality of operation units. The wearable device according to claim 6, wherein information related to the operation for each of the plurality of operation units is displayed.
  8.  前記表示制御部は、前記複数の操作部のうち前記装着型装置の後部側に位置する操作部ほど、表示領域の上方側に前記操作に関する情報を表示させる、請求項7に記載の装着型装置。 The wearable device according to claim 7, wherein the display control unit displays information related to the operation on an upper side of a display area of an operation portion located on a rear side of the wearable device among the plurality of operation portions. .
  9.  前記ユーザの頭部に前記装着型装置が装着されたときに、前記複数の操作部のうち少なくとも一以上は、前記ユーザの頭部の後ろ側に位置する、請求項8に記載の装着型装置。 The wearable device according to claim 8, wherein when the wearable device is worn on the user's head, at least one of the plurality of operation units is located behind the user's head. .
  10.  前記装着型装置は、一方向に配列された複数の前記操作部を有し、
     前記複数の操作部の各々には、表示の優先度が定められており、
     前記複数の操作部の各々の優先度は、前記一方向における端に近い操作部ほど優先度がより高くなるように定められている、請求項2に記載の装着型装置。
    The wearable device has a plurality of the operation units arranged in one direction,
    Each of the plurality of operation units has a display priority,
    The wearable device according to claim 2, wherein the priority of each of the plurality of operation units is determined such that an operation unit closer to an end in the one direction has a higher priority.
  11.  前記表示部は、画像を投影する投影部である、請求項1に記載の装着型装置。 The wearable device according to claim 1, wherein the display unit is a projection unit that projects an image.
  12.  前記装着型装置は、前記投影部をさらに備える、請求項11に記載の装着型装置。 The wearable device according to claim 11, wherein the wearable device further includes the projection unit.
  13.  前記装着型装置は、ヘッドホンである、請求項11に記載の装着型装置。 The wearable device according to claim 11, wherein the wearable device is a headphone.
  14.  前記投影部は、前記ユーザもしくは前記ユーザの装着物へ画像を投影する、請求項12に記載の装着型装置。 The wearable device according to claim 12, wherein the projection unit projects an image onto the user or an object worn by the user.
  15.  前記装着型装置は、前記ユーザに前記装着型装置が装着されたときに左側に位置する第1ユニットと、右側に位置する第2ユニットとを含み、
     前記操作部は、前記第1ユニットもしくは前記第2ユニットの一方に設置されており、
     前記投影部は、前記第1ユニットもしくは前記第2ユニットの他方に設置されている、請求項12に記載の装着型装置。
    The wearable device includes a first unit located on the left side when the wearable device is worn by the user, and a second unit located on the right side,
    The operation unit is installed in one of the first unit or the second unit,
    The wearable device according to claim 12, wherein the projection unit is installed on the other of the first unit or the second unit.
  16.  装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部に対する操作に関する情報を表示部に表示させること、
    を備える、情報処理方法。
    When the wearable device is worn by the user, displaying information on an operation on the operation unit arranged outside the user's field of view on the display unit;
    An information processing method comprising:
  17.  コンピュータを、
     装着型装置がユーザに装着されたときに、前記ユーザの視界外に配置される操作部に対する操作に関する情報を表示部に表示させる表示制御部、
    として機能させるための、プログラム。
    Computer
    A display control unit for displaying information on an operation on an operation unit arranged outside the user's field of view on the display unit when the wearable device is mounted on the user;
    Program to function as
PCT/JP2016/052451 2015-05-01 2016-01-28 Wearable device, information processing method and program WO2016178328A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015093966 2015-05-01
JP2015-093966 2015-05-01

Publications (1)

Publication Number Publication Date
WO2016178328A1 true WO2016178328A1 (en) 2016-11-10

Family

ID=57217970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052451 WO2016178328A1 (en) 2015-05-01 2016-01-28 Wearable device, information processing method and program

Country Status (1)

Country Link
WO (1) WO2016178328A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236242A (en) * 2003-01-31 2004-08-19 Nikon Corp Head mounted display
JP2007267388A (en) * 2006-03-28 2007-10-11 Lg Electronics Inc Mobile communication terminal and key input detection method thereof
JP2011249906A (en) * 2010-05-24 2011-12-08 Nikon Corp Head-mounted display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236242A (en) * 2003-01-31 2004-08-19 Nikon Corp Head mounted display
JP2007267388A (en) * 2006-03-28 2007-10-11 Lg Electronics Inc Mobile communication terminal and key input detection method thereof
JP2011249906A (en) * 2010-05-24 2011-12-08 Nikon Corp Head-mounted display

Similar Documents

Publication Publication Date Title
JP5884502B2 (en) Head mounted display
US8560976B1 (en) Display device and controlling method thereof
US20190253784A1 (en) Input device
JP5957875B2 (en) Head mounted display
US20140320383A1 (en) Head-mounted display and information display apparatus
EP3189403A1 (en) Multi-surface controller
JP6264871B2 (en) Information processing apparatus and information processing apparatus control method
US11199830B2 (en) Operating system for a machine of the food industry
TWI480766B (en) Apparatus and method for controlling a sound reproduction apparatus
US20070268268A1 (en) Touchpad Device
JP2007310599A (en) Video display device
JP2017518597A (en) Control method, apparatus, electronic device, and computer recording medium
JP2018500691A (en) Touch operation method, touch operation component, and electronic device
KR20160004130A (en) Mobile terminal and method for controlling the same
KR20150109693A (en) The Apparatus and Method for Digital Device comprising Side touch region
JP6638392B2 (en) Display device, display system, display device control method, and program
JP2018022426A (en) Display device, head-mounted display device, and method for controlling display device
WO2016178328A1 (en) Wearable device, information processing method and program
JP6740613B2 (en) Display device, display device control method, and program
JP2011170585A (en) Pointing device and information processing system
JP2012194626A (en) Display device
TWI468992B (en) Laser pointer system
KR101673996B1 (en) Wearable laser pointer in finger
WO2021120331A1 (en) Neckband earphone and function switching method, system and device, and computer medium
JP2012083866A (en) Finger attachment type processor with tactile sense reproduction function

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16789464

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16789464

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP