JP2020166641A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2020166641A JP2020166641A JP2019067394A JP2019067394A JP2020166641A JP 2020166641 A JP2020166641 A JP 2020166641A JP 2019067394 A JP2019067394 A JP 2019067394A JP 2019067394 A JP2019067394 A JP 2019067394A JP 2020166641 A JP2020166641 A JP 2020166641A
- Authority
- JP
- Japan
- Prior art keywords
- control unit
- recognized
- area
- output
- operating body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1008—Earpieces of the supra-aural or circum-aural type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/04—Sound-producing devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】ユーザが視認できない領域において、操作領域に係る情報を確認することやより多彩な操作を行うことが可能とする。【解決手段】認識された操作体の位置に基づいて、認識された操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、を備え、制御部は、前記認識された操作体が操作領域内に位置する場合、認識された操作体が位置する操作領域に対応する装置の機能の実行を制御し、操作領域は、ユーザが視認できない領域である、情報処理装置が提供される。また、プロセッサが、認識された操作体の位置に基づいて、認識された操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御することと、認識された操作体が操作領域内に位置する場合、認識された操作体が位置する操作領域に対応する装置の機能の実行を制御することと、を含み、操作領域は、ユーザが視認できない領域である、情報処理方法が提供される。【選択図】図2
Description
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、装置に音を出力させることで、領域に関する情報をユーザに報知する技術が開発されている。例えば、特許文献1では、音源装置から発生した音波によりユーザの移動経路として用いられる領域情報を通知することでユーザを誘導する技術が開示されている。
ところで、ユーザは、視認ができない領域で装置に対する操作を行う場合、当該領域のうちの意図する領域で操作ができているか否かを確認することが困難となり得る。しかし、特許文献1に記載の技術では、視認ができない領域で装置に対する操作を行う場合については考慮されていない。
本開示によれば、認識された操作体の位置に基づいて、認識された操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、を備え、制御部は、認識された操作体が操作領域内に位置する場合、認識された操作体が位置する操作領域に対応する装置の機能の実行を制御し、操作領域は、ユーザが視認できない領域である、情報処理装置が提供される。
また、本開示によれば、プロセッサが、認識された操作体の位置に基づいて、認識された操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御することと、認識された操作体が操作領域内に位置する場合、認識された操作体が位置する操作領域に対応する装置の機能の実行を制御することと、を含み、操作領域は、ユーザが視認できない領域である、情報処理方法、が提供される。
また、本開示によれば、コンピュータを、認識された操作体の位置に基づいて、認識された操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、を備え、制御部は、認識された操作体が操作領域内に位置する場合、認識された操作体が位置する操作領域に対応する装置の機能の実行を制御し、操作領域は、ユーザが視認できない領域である、情報処理装置、として機能させるためのプログラム、が提供される。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.実施形態
2.1.機能構成例
2.2.具体例
2.2.1.具体例1
2.2.2.具体例2
2.2.3.具体例3
2.2.4.具体例4
2.2.5.具体例5
2.2.6.具体例6
3.動作例
4.ハードウェア構成例
5.まとめ
1.概要
2.実施形態
2.1.機能構成例
2.2.具体例
2.2.1.具体例1
2.2.2.具体例2
2.2.3.具体例3
2.2.4.具体例4
2.2.5.具体例5
2.2.6.具体例6
3.動作例
4.ハードウェア構成例
5.まとめ
<1.概要>
まず、本開示に係る概要について説明する。近年、ユーザの耳に装着され音を出力するヘッドホンやイヤホン等の情報処理端末に対し直接操作を行うことで、所定の機能を実行させる技術が開発されている。当該技術によれば、例えば、情報処理端末に対するタッチ操作に基づく、音楽の再生もしくは停止処理の実行などが可能であり、より手軽な他の装置を要しない操作が実現される。
まず、本開示に係る概要について説明する。近年、ユーザの耳に装着され音を出力するヘッドホンやイヤホン等の情報処理端末に対し直接操作を行うことで、所定の機能を実行させる技術が開発されている。当該技術によれば、例えば、情報処理端末に対するタッチ操作に基づく、音楽の再生もしくは停止処理の実行などが可能であり、より手軽な他の装置を要しない操作が実現される。
また、上記端末が近接センサを備える場合、近接センサが検出可能な実空間上で、ユーザの手により実行された所定のジェスチャに基づいて、対応する機能を実行させる技術も開発されている。当該技術によれば、例えば、端末とユーザの手との実空間上の距離の変化に基づいて音量調整などの処理の実行が可能であり、直接タッチ操作を行うことが困難なイヤホン型の装置でも、より手軽な他の装置を要しない操作が実現される。
しかしながら、上記技術による端末の操作において、以下のような状況が発生し得る。
まず、ユーザが装着したヘッドホンやイヤホンに対する操作は、例えばヘッドホン側面(ハウジング面)などの当該ユーザが視認できない箇所で実行され得る。そのため、ユーザは実行中のジェスチャが意図するように実行できているか否かを確認することができない。その結果、ユーザが意図するジェスチャと異なる種別のジェスチャが端末に認識されている場合、ユーザが所望する機能とは異なる機能を実行された段階で、異なるジェスチャが認識されたことに気が付く状況が生じ得る。
また、ユーザは、視認できない領域において自身の手が、操作が可能な領域のうちのいずれの領域に位置しているのかを把握することができない。そのため、ユーザは意図する操作を行うことができない状況が発生し得る。例えば、ユーザがヘッドホンにおけるタッチパネルを有するハウジング表面で所定方向へスワイプ操作を行う際、ハウジング表面の端からスワイプ操作を開始する場合、十分な距離を操作することができない状況が発生し得る。また、空間中のジェスチャに基づいて操作が行われる場合、ユーザUは端末に触れていないため、空間中におけるどの位置でジェスチャを行っているのか把握することがより困難となり得る。
本開示に係る技術思想は上記の点に鑑みて発想されたものであり、ユーザが視認できない領域において、操作の成否を確認することや、より多彩な操作を行うことが可能となる。
ここで、図1を参照して、本開示に係る情報処理端末10の概要について説明する。図1は、本開示に係る情報処理端末の概要について説明するための図である。図1には、ユーザUに装着された、ヘッドホンである情報処理端末10が示されている。
情報処理端末10は、操作体であるユーザUの手Hによりハウジング面における操作が可能な領域で所定のジェスチャ操作を認識した場合、認識した操作に対応する機能を実行する。ここで、情報処理端末10は、所定のジェスチャ操作を実行中の操作体の認識状況に基づいて、ジェスチャ操作に対応する機能に係る情報を報知することが可能である。ここで、図1に示される一例において、当該情報の報知は、音の出力により実行され得る。
また、情報処理端末10は、ユーザUの手Hが操作領域のいずれの位置に存在しているかを認識し、ユーザUの手Hが位置する操作領域に対応する情報を出力することも可能である。ここで、図1に示される一例において、当該情報を出力は、音の出力により実行され得る。なお、以下明細書では、情報処理端末10がヘッドホンもしくはイヤホンである例について説明する。
<2.実施形態>
<<2.1.機能構成例>>
続いて、本実施形態に係る情報処理端末10の機能構成の一例について説明する。図2は、本実施形態に係る情報処理端末10の機能構成の一例について説明するための図である。情報処理端末10は、入力部110、認識部120、制御部130、出力部140、記憶部150、および通信部160を備える。
<<2.1.機能構成例>>
続いて、本実施形態に係る情報処理端末10の機能構成の一例について説明する。図2は、本実施形態に係る情報処理端末10の機能構成の一例について説明するための図である。情報処理端末10は、入力部110、認識部120、制御部130、出力部140、記憶部150、および通信部160を備える。
(入力部110)
入力部110は、種々の情報を受け付ける。入力部110は、例えばユーザからの操作入力を受け付ける。入力部110は、例えばハウジング面にタッチパッドを備え、ユーザからのタッチ操作を受け付けてよい。入力部110は、タッチパッドへの操作体の接触を検出してよい。また、入力部110は、近接センサを備え、実空間上の操作体を検出してよい。以下、入力部110が操作体を検出することが可能な領域のうち操作に用いられる領域を操作領域とも称する。
入力部110は、種々の情報を受け付ける。入力部110は、例えばユーザからの操作入力を受け付ける。入力部110は、例えばハウジング面にタッチパッドを備え、ユーザからのタッチ操作を受け付けてよい。入力部110は、タッチパッドへの操作体の接触を検出してよい。また、入力部110は、近接センサを備え、実空間上の操作体を検出してよい。以下、入力部110が操作体を検出することが可能な領域のうち操作に用いられる領域を操作領域とも称する。
なお、入力部110は、外音取込み用のマイクロホンを備えてもよい。入力部110がマイクロホンにより取り込んだ外音信号は、外音除去処理に用いられ得る。入力部110が受け付けた情報を認識部120へ送信する。
(認識部120)
認識部120は、入力部110から送信された情報に基づき種々の認識処理を実行する。認識部120は、所定の操作が実行中であることを認識する。また、認識部120は、ジェスチャ認識機能を有する。認識部120は、タッチパッドや近接センサの検出結果などに基づいて、タッチパッド上のスライドや近接センサにより検出可能な実空間上のジェスチャの実行などの認識が可能である。認識部120による認識結果は、認識状況として制御部130へ送信される。
認識部120は、入力部110から送信された情報に基づき種々の認識処理を実行する。認識部120は、所定の操作が実行中であることを認識する。また、認識部120は、ジェスチャ認識機能を有する。認識部120は、タッチパッドや近接センサの検出結果などに基づいて、タッチパッド上のスライドや近接センサにより検出可能な実空間上のジェスチャの実行などの認識が可能である。認識部120による認識結果は、認識状況として制御部130へ送信される。
(制御部130)
制御部130は、情報処理端末10の各構成の制御を行う。
制御部130は、情報処理端末10の各構成の制御を行う。
また、制御部130は、操作領域においてジェスチャを実行中の操作体の認識状況に基づいて、当該ジェスチャに対応する機能に係る報知情報の出力を動的に制御してよい。ここで、上述したように、操作体の認識状況は、認識部120が認識した認識結果である。制御部130は、認識状況が含む種々の状況により報知情報の出力を制御する。またここで、報知情報は、実行中のジェスチャに係る情報である。実行中のジェスチャに係る情報は、例えば、認識部120が認識したジェスチャの種別をユーザUが理解できるような情報である。また、報知情報は、例えば報知音である。
以下、明細書では、報知情報が報知音である例について説明するが、勿論、報知情報は音情報以外により表現されてもよい。報知情報としては、例えば振動情報などが挙げられる。制御部130が認識状況に基づいて報知情報の出力を制御することにより、ユーザUは自身が視認できない領域において自身が意図するようにジェスチャが認識されているかを確認することが可能となる。
また、制御部130は、認識状況により示される操作体の位置に基づいて、当該操作体が位置する操作領域に係る報知情報の出力を制御してよい。ここで、操作領域に係る報知情報は、例えば、操作体が操作領域内に位置するか否かを示す情報や、複数の操作領域が存在する場合に、操作体がいずれの操作領域に位置するかを示す情報などである。なお、上述したように、以下明細書では、操作領域に係る報知情報が操作領域に係る報知音である例について説明する。制御部130は、操作体が位置する操作領域に対応する機能の実行を制御する。ここで、当該機能は、例えば出力音量調整機能や曲送り機能、曲戻し機能などである。制御部130が操作体の位置する操作領域の情報の出力を制御することにより、ユーザUは自身が意図する場所で操作できているかを確認することが可能となる。
制御部130による報知音の出力制御については、具体例を後述する。
(出力部140)
出力部140は、制御部130による制御により各種情報を出力する。出力部140は、例えばドライバユニットにより音を出力する。出力部140が出力する音としては、上述した報知音が挙げられる。また、出力部140は、制御部130による制御により所定の機能を実行する。また、出力部140はアクチュエータを備え振動により報知情報を出力してもよい。
出力部140は、制御部130による制御により各種情報を出力する。出力部140は、例えばドライバユニットにより音を出力する。出力部140が出力する音としては、上述した報知音が挙げられる。また、出力部140は、制御部130による制御により所定の機能を実行する。また、出力部140はアクチュエータを備え振動により報知情報を出力してもよい。
(記憶部150)
記憶部150は、情報処理端末10の動作に係る種々の情報を記憶する。記憶部150は、例えば報知音として使用される音源情報などを記憶してもよい。
記憶部150は、情報処理端末10の動作に係る種々の情報を記憶する。記憶部150は、例えば報知音として使用される音源情報などを記憶してもよい。
(通信部160)
通信部160は、他の装置との情報通信を行う。例えば、通信部160は、他の装置から音情報を受信する。通信部160が受信した音情報は、例えば制御部130を介して出力部140によりユーザUに対し出力される。また、他の装置は、例えば音楽プレーヤやスマートフォン等である。
通信部160は、他の装置との情報通信を行う。例えば、通信部160は、他の装置から音情報を受信する。通信部160が受信した音情報は、例えば制御部130を介して出力部140によりユーザUに対し出力される。また、他の装置は、例えば音楽プレーヤやスマートフォン等である。
<<2.2.具体例>>
続いて、本実施形態に係る情報処理端末10による報知音の出力制御の具体例について説明する。
続いて、本実施形態に係る情報処理端末10による報知音の出力制御の具体例について説明する。
[2.2.1.具体例1]
まず、制御部130は、認識状況が示す操作体が実行中のジェスチャの種別に基づいて、報知音の出力を動的に制御してもよい。ここで、ジェスチャの種別とは、例えば操作体が操作領域においてどのように移動したかに基づいて決定される種別をいう。タッチパッドを備えるヘッドホンの場合、ジェスチャの種別として、タッチパッド上における操作体の水平方向へのスライド移動や円を描くような回転移動などが挙げられる。認識部120が認識しているジェスチャの種別を報知音としてユーザUに知らせることで、ユーザUは現在実行中のジェスチャが意図したジェスチャとして情報処理端末10に認識されているか否かを確認することが可能となる。また、ジェスチャの種別に対応して実行される情報処理端末10に係る機能が存在する場合、ユーザUは実行を意図する機能に対応するジェスチャが認識されているか否かを確認することも可能である。
まず、制御部130は、認識状況が示す操作体が実行中のジェスチャの種別に基づいて、報知音の出力を動的に制御してもよい。ここで、ジェスチャの種別とは、例えば操作体が操作領域においてどのように移動したかに基づいて決定される種別をいう。タッチパッドを備えるヘッドホンの場合、ジェスチャの種別として、タッチパッド上における操作体の水平方向へのスライド移動や円を描くような回転移動などが挙げられる。認識部120が認識しているジェスチャの種別を報知音としてユーザUに知らせることで、ユーザUは現在実行中のジェスチャが意図したジェスチャとして情報処理端末10に認識されているか否かを確認することが可能となる。また、ジェスチャの種別に対応して実行される情報処理端末10に係る機能が存在する場合、ユーザUは実行を意図する機能に対応するジェスチャが認識されているか否かを確認することも可能である。
以下、図3を参照して、本実施形態に係る制御部130によるジェスチャの種別に基づく報知音の出力制御の一例について説明する。図3は、本実施形態に係る制御部130によるジェスチャの種別に基づく報知音の出力制御の一例について説明するための図である。図3には、ユーザUに装着された、ヘッドホンである情報処理端末10が示されている。
図3左側では、操作体であるユーザUの手Hがタッチパッド上で水平方向へ移動(フリック移動)している。制御部130は、認識状況によりユーザUの手Hが水平方向へ移動している最中であることが示されており、水平方向への移動に対応する報知音の出力を出力部140に出力させている。
図3右側では、ユーザUの手Hがタッチパッド上で回転するように移動している。制御部130は、認識状況によりユーザUの手Hが回転移動している最中であることが示されており、水平方向への移動に対応する報知音を出力部140に出力させている。ここで、出力部140により出力される報知音は、図3左側で出力される報知音とは異なる。
図3に示した例では、実行中のジェスチャの種別に基づいて報知音が出力されていたが、他にも、制御部130は、ジェスチャを実行中であるユーザUの手Hの指の本数に基づいて、報知音の出力を制御してもよい。これにより、同様のジェスチャを実行中であっても、それぞれの指の本数に対応する報知音を出力させることができ、ユーザUが意図した指の本数でジェスチャが認識されているか否かを確認することが可能となる。
なお、制御部130は、ジェスチャを実行中である操作体の移動速度にさらに基づいて、報知音を出力させてもよい。これにより、設定値の変更度合いを確認したり、またより詳細な操作を実行したりすることが可能となる。また、制御部130は、実行中のジェスチャの種別を特定できない場合、種別の特定が可能になるまでジェスチャの予備動作に対応する報知音を出力させ、種別の特定ができた段階で実行中のジェスチャの種別に基づいて報知音が出力させてもよい。
以下、図4を参照して、本実施形態に係る制御部130によるユーザの指の本数に基づく報知音の出力制御の一例について説明する。図4は、本実施形態に係る制御部130によるユーザの指の本数に基づく報知音の出力制御の一例について説明するための図である。図4には、ユーザUに装着された、ヘッドホンである情報処理端末10が示されている。
図4左側では、ユーザUの手Hの指1本がタッチパッド上で水平方向へ移動(フリック移動)している。ここで、制御部130は、認識状況により2本の指でジェスチャを実行中であることが示されているため、水平方向への移動に対応する報知音を出力部140に出力させている。
図4右側では、ユーザUの手Hの指2本がタッチパッド上で水平方向へ移動している。ここで、制御部130は、認識状況により2本の指でジェスチャを実行中であることが示されるため、水平方向への移動に対応する報知音を出力部140に出力させている。ここで、出力部140により出力される報知音は、図4左側で出力される報知音とは異なる。
このように、実行中のジェスチャの種別や、ジェスチャを実行中の指の本数に基づいて、出力される報知音が変化する。なお、制御部130は、認識状況により操作体としてのユーザUの指の本数が所定の本数である場合にのみ、報知音を出力させてもよい。例えば、図4に示された例の場合、制御部130は、認識状況により2本の指でジェスチャを実行中であることが示される場合にのみ、例えば2本の指でタッチパッドを触り続けている間のみ、報知音を出力させてよい。これにより、ユーザUは認識された指の本数をより明確に把握することが可能となる。
ここで、制御部130は、操作体が操作領域を移動する際に、認識状況が示す操作体の移動方向に基づいて、報知音の出力を動的に制御してもよい。具体的には、制御部130は、認識状況が示す操作体の移動方向に基づいて、報知音の出力態様を変化させてもよい。ここでの報知音の出力態様は、例えば報知音の周波数や、ピッチ、粗密、音量などである。操作体の移動方向に基づいて報知音が出力されることで、ユーザUは、操作体が自身の意図するように移動させられているか否かを確認することが可能となる。
ここで、図5〜7を参照して、本実施形態に係る制御部130による操作体の移動方向に基づく報知音の出力制御の一例について説明する。図5〜7は、本実施形態に係る制御部130による操作体の移動方向に基づく報知音の出力制御の一例について説明するための図である。
図5には、操作体の移動方向に基づく報知音の変化を表すグラフG1が示されている。グラフG1に示されるように、例えば操作体が右方向に移動するに従って徐々に報知音のピッチが上昇し、一方で、左方向に移動するに従って徐々に報知音のピッチが下落してもよい。また、グラフG1に示されるように、例えば操作体が上方向に移動するに従って徐々に報知音として出力される音の密度が上昇し、一方で、下方向に移動するに従って徐々に報知音として出力される音の密度が下落してもよい。なお、操作領域が領域PRとして示される場合、操作体の領域PRにおける位置に基づいて報知音のピッチや粗密が決定されてもよい。制御部130は、操作体の移動に追従して報知音を出力させてもよい。
図6、7には、ユーザUに装着された、ヘッドホンである情報処理端末10が示されている。ここで、制御部130は、図6に示されるように、認識部120により操作体がタッチパッドの左側から右側(後ろ側から前側)へ移動していることが認識される場合、報知音のピッチを徐々に上昇させる。また、制御部130は、図7に示されるように、認識部120により操作体がタッチパッドの下側から上側へ移動していることが認識される場合、報知音の密度を徐々に上昇させる。
ところで、操作体の移動方向に基づいて報知音の周波数や音量などが決定されてよい。特に、報知音は単一の音源により構成される場合、操作体の移動方向に基づいて報知音のピッチや粗密が決定されてよい。単一の音源により報知音が出力されることで、ユーザUが報知音の変化をより容易に把握することが可能となる。例えば、所定の設定値を変更する操作時に単一の音源の出力の繰り返し回数が変化することで、ユーザUは設定値がどのように変化しているのかより具体的に把握することが容易となる。
ここで、図8を参照して、本実施形態に係る単一の音源による報知音のピッチおよび粗密の変化の一例について説明する。図8は、本実施形態に係る単一の音源による報知音のピッチおよび粗密の変化の一例について説明するための図である。図8には、グラフG2〜G4が示されている。グラフG2には、単一の音源が繰り返し示されている。また、グラフG3には、グラフG2と比較してより密度が高く単一の音源が繰り返し示されている。また、グラフG3には、グラフG2、G3と比較して単一の音源のピッチが減少している。
[2.2.2.具体例2]
ところで、例えばスマートフォンのロック画面では、タッチパネル上で所定距離のスワイプ操作を行うことでロックが解除されるように、操作体が所定の距離移動した場合に、機能が実行される装置が存在する。本実施形態に係る情報処理端末10においても同様に、制御部130は、操作体の移動距離と所定の閾値との比較に基づいて、報知音の出力を動的に制御してもよい。具体的には、制御部130は、操作体の移動距離と、所定の閾値との差分に基づいて、報知音の出力を動的に制御してもよい。ここで、操作体の移動距離は、操作領域における操作体の移動距離であり、また、所定の閾値は予め定められた値でよい。
ところで、例えばスマートフォンのロック画面では、タッチパネル上で所定距離のスワイプ操作を行うことでロックが解除されるように、操作体が所定の距離移動した場合に、機能が実行される装置が存在する。本実施形態に係る情報処理端末10においても同様に、制御部130は、操作体の移動距離と所定の閾値との比較に基づいて、報知音の出力を動的に制御してもよい。具体的には、制御部130は、操作体の移動距離と、所定の閾値との差分に基づいて、報知音の出力を動的に制御してもよい。ここで、操作体の移動距離は、操作領域における操作体の移動距離であり、また、所定の閾値は予め定められた値でよい。
ここで、図9を参照して、本実施形態に係る制御部130による操作体の移動距離と所定の閾値との比較に基づく報知音の出力制御の一例について説明する。図9は、本実施形態に係る制御部130による操作体の移動距離と所定の閾値との比較に基づく報知音の出力制御の一例について説明するための図である。図9には、操作体が所定の距離以上移動したことを示すグラフG5と、グラフG5に対応する報知音のピッチを示すグラフG6が示されている。また、図9には、操作体が所定の距離以上移動する前に移動を止めたことを示すグラフG7と、グラフG7に対応する報知音のピッチを示すグラフG8が示されている。
グラフG5、G7の横軸は時間、縦軸は操作体の初期位置を基準とした位置である。また、グラフG6、G8の横軸は時間、縦軸は報知音のピッチである。グラフG5、G7に示されるように、操作体が移動するに従って報知音のピッチが徐々に上昇し、移動距離が所定の閾値を超えた後も同様に報知音のピッチが上昇してもよい。なお、制御部130は、操作体の移動距離が所定の閾値を超えた場合、情報処理端末10に係る機能を実行してよい。
一方で、グラフG6、G8に示されるように、操作体が移動するに従って報知音のピッチが徐々に上昇するが、移動距離が所定の閾値を超える前に操作が終了している。そのような場合、グラフG8に示されるように、報知音のピッチの変化が上昇から下落になってもよい。ここで、報知音のピッチは、操作体が操作を開始する瞬間の報知音のピッチと略同一となってもよい。なお、制御部130は、操作体の移動距離が所定の閾値を超えていないため、同様の機能を実行しない。
グラフG6とグラフG8とを比較すると、操作体の移動距離が所定の閾値を超えたか否かに応じて報知音のピッチの変化の仕方が異なる。従って、ユーザUは対応する機能を実行させることができたか否かを直観的に把握することが可能となる。なお、図9で説明した報知音の出力制御は、あくまで一例であり、係る例に限定されない。
[2.2.3.具体例3]
また、制御部130は、認識状況が示す操作体の位置に基づいて、操作体が位置する操作領域に係る音の出力を制御してもよい。すなわち、制御部130は、認識状況が示す操作体の位置に基づいて、操作体の位置に関しフィードバックをユーザUに行ってもよい。例えば、制御部130は、操作領域が複数存在する場合、操作体がいずれの操作領域に位置するかに基づいて、音の出力を制御してもよい。
また、制御部130は、認識状況が示す操作体の位置に基づいて、操作体が位置する操作領域に係る音の出力を制御してもよい。すなわち、制御部130は、認識状況が示す操作体の位置に基づいて、操作体の位置に関しフィードバックをユーザUに行ってもよい。例えば、制御部130は、操作領域が複数存在する場合、操作体がいずれの操作領域に位置するかに基づいて、音の出力を制御してもよい。
ここで、図10を参照して、本実施形態に係る操作領域の一例について説明する。図10は、本実施形態に係る操作領域の一例について説明するための図である。図10には、ユーザUに装着された、ヘッドホンである情報処理端末10および情報処理端末10のタッチパッド上での操作可能領域ORおよび操作不可能領域NORが示されている。ここで、操作可能領域ORは、操作体により操作を行うことが可能な円状で、ユーザUからは視認ができない操作領域である。図10では、操作可能領域ORが複数存在し、制御部130は、いずれかの操作可能領域ORで操作体による操作が行われた場合、当該操作可能領域ORに対応する情報処理端末10に係る機能の実行を制御してよい。一方で、操作不可能領域NORは、操作体により操作を行うことができない領域である。勿論、操作可能領域ORおよび操作不可能領域NORの配置および形状は、係る例に限定されない。
以上説明したように、操作領域は独立して複数存在してもよい。そのような場合、制御部130は、操作体が位置する操作領域に対応する音の出力を制御してもよい。ここで、出力される音は、例えば上述した報知音でもよい。ここで、図11を参照して、本実施形態に係る制御部130による操作体が位置する操作領域に対応する報知音の出力制御の一例について説明する。図11は、本実施形態に係る制御部130による操作体が位置する操作領域に対応する報知音の出力制御の一例について説明するための図である。図11には、ユーザUに装着された、ヘッドホンである情報処理端末10および操作領域R1〜R4が示されている。なお、操作領域R1〜R4は、図10で示された操作可能領域ORと同様の領域である。
図11左側では、操作体であるユーザUの手Hは操作領域R1に位置している。制御部130は、認識状況によりユーザUの手Hが操作領域R1に位置していることが示され、操作領域R1に対応する報知音を出力部140に出力させている。図11右側では、操作体であるユーザUの手Hは操作領域R2に位置している。制御部130は、認識状況によりユーザUの手Hが操作領域R2に位置していることが示され、操作領域R2に対応する報知音を出力部140に出力させている。ここで、出力部140により出力される報知音は、図11左側で出力される報知音とは異なる。このように、複数の操作領域が存在する場合に、ユーザUは視認せずとも、いずれの操作領域に操作体が位置するかを把握することが可能となる。
ところで、ユーザUは操作領域を視認できないため、操作体が意図せずに操作領域外に移動してしまう可能性がある。従って、制御部130は、認識状況により操作体が操作領域外へ移動することが予想される場合、操作領域外への移動予想を報知する報知音を出力させてもよい。
ここで、図12を参照して、本実施形態に係る制御部130による操作体が操作領域外へ移動することが予想される場合の報知音の出力制御の一例について説明する。図12は、本実施形態に係る制御部130による操作体が操作領域外へ移動することが予想される場合の報知音の出力制御の一例について説明するための図である。図12には、ユーザUに装着された、ヘッドホンである情報処理端末10および操作領域R1〜R4が示されている。
図12左側では、図11左側と同様に、操作体であるユーザUの手Hが操作領域R1に位置している。ここで、制御部130は、操作領域R1に対応する報知音を出力部140に出力させている。図12右側では、操作体であるユーザUの手Hは操作領域R2位置しているが、操作領域R2から外側に移動している状態である。このような状態で、制御部130は、操作体が操作領域R2から外に移動することの予想を報知する報知音を出力させる。図12右側で出力される報知音は、操作領域外に移動が予想されることを警告するような音でもよい。このように、ユーザUは、操作領域外へ操作体が移動しそうになる場合でも、操作体の位置を修正することが可能となる。なお、操作体の移動方向を考慮せず、操作領域内の端に位置する場合に、操作体が操作領域外へ移動することが予想されると見なしてもよい。
[2.2.4.具体例4]
上記までは、操作領域がひとつである場合の報知音の出力制御の例について説明してきた。しかし、制御部130は、複数の操作領域に係る報知音の出力を制御してもよい。具体的には、制御部130は、操作体とそれぞれの操作領域との位置関係に基づいて、それぞれの操作領域に対応する報知音を出力させてもよい。例えば、制御部130は、操作体とそれぞれの操作領域との位置関係に基づいて、それぞれの操作領域に対応する報知音を出力させる際の音量やピッチ、周波数などを決定しても良い。報知音の音量やピッチ、周波数などは、例えばそれぞれの操作領域との距離に基づいて決定されてもよい。さらに、制御部130は、所定の操作領域に誘導するように、報知音の出力を制御してもよい。
上記までは、操作領域がひとつである場合の報知音の出力制御の例について説明してきた。しかし、制御部130は、複数の操作領域に係る報知音の出力を制御してもよい。具体的には、制御部130は、操作体とそれぞれの操作領域との位置関係に基づいて、それぞれの操作領域に対応する報知音を出力させてもよい。例えば、制御部130は、操作体とそれぞれの操作領域との位置関係に基づいて、それぞれの操作領域に対応する報知音を出力させる際の音量やピッチ、周波数などを決定しても良い。報知音の音量やピッチ、周波数などは、例えばそれぞれの操作領域との距離に基づいて決定されてもよい。さらに、制御部130は、所定の操作領域に誘導するように、報知音の出力を制御してもよい。
ここで、図13を参照して、本実施形態に係る制御部130によるそれぞれの操作領域に対応する報知音の出力制御の一例について説明する。図13は、本実施形態に係る制御部130によるそれぞれの操作領域に対応する報知音の出力制御の一例について説明するための図である。図13には、ユーザUに装着された、ヘッドホンである情報処理端末10および操作可能領域OR1およびOR2が示されている。
制御部130は、操作体と操作可能領域OR1、OR2のそれぞれとの距離が近いほど、操作可能領域OR1、OR2のそれぞれに対応する報知音の音量が高くなるように出力させている。図13の一例において、ユーザUの手Hがタッチパッドに接触している位置は、操作可能領域OR1よりも操作可能領域OR2に近い位置である。従って、制御部130は、操作可能領域OR2に対応する報知音を操作可能領域OR1よりも大きい音量で出力させている。
このように、複数の操作領域に関する報知音を、それぞれの操作領域と操作体との位置関係に基づいて出力させることで、ユーザUは操作体と複数の操作領域間の相対的な位置関係を把握することが可能となる。
なお、制御部130は、操作領域が実空間上を含み、入力部110が近接センサにより操作体を検出する場合、操作体とそれぞれの操作領域との実空間上の距離に基づいて、それぞれの操作領域に対応する報知音を出力させてもよい。
ここで、図14を参照して、本実施形態に係る制御部130によるそれぞれの操作領域に対応する報知音の出力音量制御の一例について説明する。図14は、本実施形態に係る制御部130によるそれぞれの操作領域に対応する報知音の出力音量制御の一例について説明するための図である。図14には、横軸が位置で縦軸が音量であり、操作領域とその他の領域との境界点LPおよびRPが存在するグラフBGが示されている。境界点LPおよびRPは、それぞれ異なる操作領域との境界点であり、境界点LPとRPとの間は操作領域ではない。また、中間点Mは、境界点LPとRPとの距離が等しい地点である。
グラフBGには、境界点LPとRPとの間に操作体が位置する場合に、境界点LPに対応する報知音の音量LBと境界点RPに対応する報知音の音量RBが示されている。グラフBGに示されるように、制御部130は、操作体の位置がそれぞれの境界点に近いほど音量が大きくなるように報知音を出力させる。なお、境界点LPに対応する報知音の音量LBと境界点RPに対応する報知音の音量RBとの合計は、ユーザUがそれぞれの報知音の音量変化を認識し易いように一定となっている。操作体が中間点Mに位置する場合、それぞれの報知音の音量は、最大値の半分となっている。
このように、操作体と複数の操作領域との距離に対応する複数の報知音の音量が同時に変化することで、ユーザUはより直観的に操作体の位置を把握することが可能となる。
ところで、制御部130は、操作体と複数の操作領域のまとまりとの位置関係に基づいて報知音が報知する情報を変化させてもよい。例えば、制御部130は、操作体が複数の操作領域の間に位置する場合、図14で示されたような報知音を出力させてもよい。一方で、例えば操作体が複数の操作領域が存在する領域の外側の領域に位置する場合、ユーザUの手Hが複数の操作領域の存在する領域まで移動することが優先され得るため、制御部130は、複数の操作領域の外側に位置することを報知する報知音を出力させてもよい。
ここで、図15を参照して、本実施形態に係る操作体と複数の操作領域との位置関係および当該位置関係に係る出力制御について説明する。図15は、本実施形態に係る操作体と複数の操作領域との位置関係の一例について説明するための図である。図15には、ユーザUの手Hおよび操作可能領域OR1およびOR2が示されている。
図15左側において、制御部130は、ユーザUの手Hが操作可能領域OR1とOR2との間に位置しているため、操作体とそれぞれの操作領域との位置関係に基づいて、それぞれの操作領域に対応する報知音を出力させる。図15中段において、制御部130は、ユーザUの手Hが操作可能領域OR1内に位置するため、操作可能領域OR1に対応する報知音のみを出力させる。図15右側において、制御部130は、ユーザUの手Hが操作可能領域OR1およびOR2の外側に位置しているため、図15左側に示された操作体の位置で出力された報知音とは異なる、操作可能領域OR1およびOR2の外側に位置していることを報知する報知音を出力させる。
このように、操作体と複数の操作領域との位置関係に基づいて出力される報知音が変化することで、ユーザUはより快適に端末の操作を行うことが可能となる。
なお、制御部130は、操作体が操作可能領域OR1およびOR2の外側に位置している場合にのみ、ユーザUに対し音による報知を行ってもよい。これにより、操作体が複数の操作領域から大きく外れるなどの場合に、ユーザUにより確実に警告することが可能となる。当該報知は、情報処理端末10がHMD(Head Mounted Display)である場合でも、より確実な警告として適用することが可能である。
[2.2.5.具体例5]
ところで、ユーザUが視認できない領域で操作体により操作を行う際に、基準となる領域(もしくは点)が把握可能であると、操作性が向上し得る。例えば、ユーザUが自身の手Hの位置を把握できなくなった際に、基準となる領域に手Hの位置を戻すことにより、一旦、手Hの位置を把握することができる。従って、制御部130は、操作体による操作における基準となる基準領域に操作体が位置することが認識された場合、基準領域に対応する報知音の出力を制御してもよい。
ところで、ユーザUが視認できない領域で操作体により操作を行う際に、基準となる領域(もしくは点)が把握可能であると、操作性が向上し得る。例えば、ユーザUが自身の手Hの位置を把握できなくなった際に、基準となる領域に手Hの位置を戻すことにより、一旦、手Hの位置を把握することができる。従って、制御部130は、操作体による操作における基準となる基準領域に操作体が位置することが認識された場合、基準領域に対応する報知音の出力を制御してもよい。
ここで、図16を参照して、本実施形態に係る制御部130による基準領域に係る報知音の出力制御の一例について説明する。図16は、本実施形態に係る制御部130による基準領域に係る報知音の出力制御の一例について説明するための図である。図16には、ユーザUに装着された、ヘッドホンである情報処理端末10および基準領域SRが示されている。図16において、基準領域SRは、予め定められた領域であり、また操作の開始領域として適している領域である。
図16左側では、操作体であるユーザUの手Hがタッチパッド上で水平方向へ移動(フリック移動)している。制御部130は、ユーザUの手Hが基準領域SR以外に位置している。ここで、ユーザUの手Hが基準領域に位置していないため、報知音は出力されていない。
一方、図16右側では、ユーザUの手Hが基準領域SRに位置している。制御部130は、認識状況によりユーザUの手Hが基準領域SRに位置していることが示され、基準領域SRに対応する報知音を出力させる。
このように、制御部130が基準領域SRに対応する報知音を出力させることにより、基準となる地点から操作を行うことができ、より正確な操作が可能となる。
なお、図16で示した例では、制御部130は操作体が基準領域SRに位置していない場合に、報知音を出力していなかったが、一方で、基準領域SRに誘導するように報知音を出力させてもよい。例えば、所定方向へのスライド操作を連続して行う場合などで、操作体が一回所定方向へのスライド操作を行ったあと、基準領域SRに戻ってから再び同一方向へのスライド操作を行うようにすることで、操作体が操作領域から外れるなどの状況を回避することができ、より確実な操作が可能となる。なお、報知音による基準領域SRへの誘導は、例えば図13〜図15で示したような方法により実現される。また、基準領域SRは、図16に示されたような広さに限定されない。
ところで、図16で示された例では、基準領域SRは、予め定められた箇所に存在していた。しかし、操作領域中の偏った箇所でのみ操作を行う癖があるユーザUにとっては、当該基準領域SRにより操作が行いやすくなるとは限らない。従って、ユーザUにより存在する箇所が決定されてもよい。具体的には、基準領域SRは、操作領域におけるユーザUが最初に操作を開始する箇所が基準領域SRと決定されてもよい。これにより、それぞれのユーザUの操作の癖に対応した、より快適な操作の実現が可能となる。
なお、「操作を最初に開始する箇所」とは、例えばひとつの機能を実行させるための操作体が操作領域上に最初に位置する箇所などをいう。または、「操作を最初に開始する箇所」は、例えば連続して複数の操作を行う際の操作体が操作領域上に最初に位置する箇所でもよい。「操作を最初に開始する箇所」の定義は、係る例に限定されない。
ここで、図17を参照して、本実施形態に係る制御部130による任意に位置が決定される基準領域に係る報知音の出力制御の一例について説明する。図17は、本実施形態に係る制御部130による任意に位置が決定される基準領域に係る報知音の出力制御の一例について説明するための図である。図17には、ユーザUに装着された、ヘッドホンである情報処理端末10が示されている。
図17左側では、操作体であるユーザUの手Hがタッチパッドに最初に触れている。この時点で、基準領域SRは存在しない。ここで、制御部130は、ユーザUの手Hが最初に触れた箇所を基準領域SRと決定する。
一方、図17右側では、制御部130により決定された基準領域SRが示されている。ここで、制御部130は、認識状況によりユーザUの手Hが基準領域SRに位置していることが示されるため、基準領域SRに対応する報知音を出力させる。
このように、制御部130がユーザUによる操作領域を用いた操作を開始する際に基準領域SRを決定することで、それぞれのユーザUの癖に合わせた快適な操作が可能となる。
[2.2.6.具体例6]
上記までは、主に情報処理端末10がヘッドホンであり、操作領域がタッチパッド上に存在する場合の具体例について説明してきたが、上述したように、情報処理端末10は、イヤホンでもよい。情報処理端末10であるイヤホンは、入力部110としてタッチセンサを備えてもよいし、近接センサを備えてもよい。イヤホンはヘッドホンと比較して小型であるため、タッチパッドによる操作が困難である場合があり、近接センサによる空間中での操作が適していることがあり得る。以下、イヤホンが入力部110として近接センサを備える例について説明する。近接センサにより空間中の操作体の位置が認識される。
上記までは、主に情報処理端末10がヘッドホンであり、操作領域がタッチパッド上に存在する場合の具体例について説明してきたが、上述したように、情報処理端末10は、イヤホンでもよい。情報処理端末10であるイヤホンは、入力部110としてタッチセンサを備えてもよいし、近接センサを備えてもよい。イヤホンはヘッドホンと比較して小型であるため、タッチパッドによる操作が困難である場合があり、近接センサによる空間中での操作が適していることがあり得る。以下、イヤホンが入力部110として近接センサを備える例について説明する。近接センサにより空間中の操作体の位置が認識される。
図18は、本実施形態に係る操作領域が空間中に存在する場合の一例について説明するための図である。図18には、イヤホンである情報処理端末10および空間中の操作領域AR1〜AR4が示されている。
図18に示されているように、操作領域AR1〜AR4は、タッチパッド面ではなく、3次元空間中に存在している。制御部130は、操作体が操作領域AR1〜AR4のいずれかに存在する場合、報知音の出力を制御してもよい。また、制御部130は、操作領域AR1〜AR4においてジェスチャを実行中の操作体の認識状況に基づいて、当該ジェスチャに対応する機能に係る報知情報の出力を動的に制御してもよい。
また、操作領域が空間中に存在する場合、近接センサにより操作体と情報処理端末10との距離が検出され得る。従って、制御部130は、認識状況として操作体と情報処理端末10との距離が示される場合、当該距離に基づく報知音の出力を制御してもよい。
図19は、本実施形態に係る制御部130による認識状況として操作体と情報処理端末10との距離が示される場合の当該距離に基づく情報処理端末10に係る機能の実行制御の一例について説明するための図である。図19には、イヤホンである情報処理端末10およびユーザUの手Hが示されている。
図19左側に示されるように、ユーザUの手Hと情報処理端末10は、距離D3だけ離れている。制御部130は、認識状況によりユーザUの手Hが図19右側に示されるように距離D4まで情報処理端末10へ近づいたことが示される場合、すなわち認識状況によりユーザUの手Hが情報処理端末10へ近づけるジェスチャを実行中であることが示される場合、距離D3から距離D4への距離の変化に基づく報知音の出力を制御している。図19の一例において、制御部130は、ユーザUの手Hと情報処理端末10との距離が距離D3から距離D4に変化する際に、情報処理端末10が出力している報知音の音量が大きくなっている。
一方で、制御部130は、操作体が操作領域に存在するか否かに基づいて報知音の出力を制御してもよい。具体的には、制御部130は、入力部110が検出可能な空間において操作体が存在するか否かに基づいて、報知音の出力を制御してもよい。
ここで、図20を参照して、本実施形態に係る制御部130による操作領域が空間中に存在する場合の一例について説明する。図20には、イヤホンである情報処理端末10および空間中の操作領域AR1〜AR4が示されている。
図20左側では、操作体であるユーザUの手Hが操作領域の空間外に存在している。制御部130は、ユーザUの手Hが操作領域の空間外に存在していることが示されるため、報知音を出力させない。
一方、図20右側では、ユーザUの手Hが操作領域の空間内に位置している。制御部130は、認識状況によりユーザUの手Hが操作領域の空間内に位置していることが示され、基準領域SRに対応する報知音を出力させる。
このように、操作体が操作領域である空間中に位置しているか否かを確認することでき、ユーザUは視認できない空間中の操作領域を把握することが可能となる。
以上、制御部130による報知音の出力制御の具体例について説明した。上記では、情報処理端末10がヘッドホンやイヤホンである例について説明したが、係る例に限定されない。情報処理端末10は、例えば車載用のタッチパネルでもよい。自動車を運転中に種々の操作を行うためのタッチパネルを視認することは困難である。その際に、ハンドルの裏に備えられる情報処理端末10により報知音や振動で情報が報知されることで、種々の操作が実行可能となる。
また、情報処理端末10は、自律移動体などでもよい。ユーザUによる自律移動体に対するジェスチャ操作を実行中に、自律移動体が適宜報知音や振動でフィードバックを行うことで、ユーザUは、自律移動体とのインタラクションをより楽しむことができるようになる。また、上記技術は、VR(Virtual Reality)コンテンツを提供する装置にも適用が可能である。ユーザUは、VRコンテンツを利用している最中、コントローラなどを視認できない状況であることが多い。そのため、ユーザUは、コントローラの操作に関する報知音を聞きながら、より正確な操作を行うことが可能となる。
<3.動作例>
続いて、図21〜図23を参照して、本実施形態に係る制御部130による報知音を出力制御に係る動作の流れについて説明する。
続いて、図21〜図23を参照して、本実施形態に係る制御部130による報知音を出力制御に係る動作の流れについて説明する。
最初に、図21を参照して、本実施形態に係る制御部130による操作体の移動距離と所定の閾値との比較に基づく報知音の出力制御に係る動作の流れの一例について説明する。図21を参照すると、まず、入力部110が操作体を検出し、検出された操作体の位置を認識部120が認識する(S101)。次に、制御部130は、ステップS101で認識された操作体の位置に基づく操作体の移動距離に応じて報知音の高さや周波数を変化させる(S102)。
次に、ステップS101認識された操作体の位置に基づく操作体の移動距離が所定の閾値を超えている場合(S103:YES)、制御部130は報知音の周波数を上昇させ(S104)、情報処理端末10は動作を終了する。一方、ステップS101認識された操作体の位置に基づく操作体の移動距離が所定の閾値を超えておらず(S103:NO)、かつ操作体による操作が終了していない場合(S105:NO)、ステップS101へ復帰する。
一方、ステップS101認識された操作体の位置に基づく操作体の移動距離が所定の閾値を超えておらず(S103:NO)、かつ操作体による操作が終了している場合(S105:YES)、制御部130は報知音の周波数を減少させ(S106)、情報処理端末10は動作を終了する。
続いて、図22を参照して、本実施形態に係る制御部130によるジェスチャの種別に基づく報知音の出力制御に係る動作の流れの一例について説明する。図22を参照すると、まず、制御部130は、操作体の認識処理において前処理を実行する(S201)。次に、操作範囲内に操作体が位置する場合(S202:YES)、制御部130はジェスチャの受付けを開始する(S203)。
次に、認識部120によりジェスチャの予備動作が認識されない場合(S204:NO)、ステップS202へ復帰する。一方、認識部120によりジェスチャの予備動作が認識され(S204:YES)、かつジェスチャの予備動作の後に継続してジェスチャが実行していることが認識される場合(S205:YES)、制御部130はステップS205で認識される報知音の出力を制御し(S206)、情報処理端末10は動作を終了する。
一方、認識部120によりジェスチャの予備動作が認識され(S204:YES)、かつジェスチャの予備動作の後に継続してジェスチャが実行していることが認識されない場合(S205:NO)、制御部130はジェスチャの受付けを終了し(S207)、情報処理端末10は動作を終了する。
続いて、図23を参照して、本実施形態に係る制御部130による操作領域に対応する報知音の出力制御に係る動作の流れの一例について説明する。図23を参照すると、まず、操作体が操作領域内に存在する場合(S301:YES)、制御部130は操作領域に対応する報知音を出力させ(S302)、制御部130は動作を終了する。
一方、操作体が操作領域内に存在せず(S301:NO)、かつ操作領域が複数存在する場合(S303:YES)、制御部130は操作体のそれぞれの操作領域への距離に応じて報知音の高さや周波数を変化させ(S304)、制御部130は動作を終了する。また一方、操作体が操作領域内に存在せず(S301:NO)、かつ操作領域がひとつだけ存在する場合(S303:NO)、制御部130は操作体のひとつの操作領域への距離に応じて報知音の高さや周波数を変化させ(S305)、制御部130は動作を終了する。
<4.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理端末10のハードウェア構成例について説明する。図24は、本開示の一実施形態に係る情報処理端末10のハードウェア構成例を示すブロック図である。図24を参照すると、情報処理端末10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
次に、本開示の一実施形態に係る情報処理端末10のハードウェア構成例について説明する。図24は、本開示の一実施形態に係る情報処理端末10のハードウェア構成例を示すブロック図である。図24を参照すると、情報処理端末10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(プロセッサ871)
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<5.まとめ>
以上、説明したように、本実施形態に係る情報処理端末10は、ユーザが視認できない領域において、操作の成否を確認することや、より多彩な操作を行うことが可能とする。
以上、説明したように、本実施形態に係る情報処理端末10は、ユーザが視認できない領域において、操作の成否を確認することや、より多彩な操作を行うことが可能とする。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、
を備え、
前記制御部は、前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御し、
前記操作領域は、ユーザが視認できない領域である、
情報処理装置。
(2)
前記制御部は、前記認識された操作体の位置に基づいて、前記認識された操作体が位置する前記操作領域に係る音の出力を動的に制御する、
前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記認識された操作体の位置が前記操作領域内であるか否かにさらに基づいて、前記音の出力を動的に制御する、
前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記操作体を前記操作領域に誘導するように、前記音の出力を動的に制御する、
前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記操作体による操作における基準となる基準領域に対する前記認識された操作体の位置に基づいて、前記音の出力を動的に制御する、
前記(2)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記制御部は、前記認識された操作体を前記基準領域に誘導するように、前記音の出力を動的に制御する、
前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記認識された操作体の位置が前記基準領域内である場合、前記認識された操作体の位置が前記基準領域内であることを報知するように、前記音の出力を動的に制御する、
前記(5)または(6)に記載の情報処理装置。
(8)
前記制御部は、前記操作体による操作が初めて開始する際の前記認識された操作体の位置を前記基準領域と決定する、
前記(5)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記制御部は、複数の前記操作領域が存在する場合、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(2)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記制御部は、前記認識された操作体が移動している場合、前記認識された操作体の移動方向にさらに基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(9)に記載の情報処理装置。
(11)
前記制御部は、前記認識された操作体の位置とそれぞれの前記操作領域との位置関係にさらに基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(2)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記操作領域との位置関係は、前記操作領域との距離であり、
前記制御部は、前記認識された操作体とそれぞれの前記操作領域との距離に基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記認識された操作体の前記操作領域内から前記操作領域外への移動が予想される場合、前記移動が予想されることを報知するように、前記音の出力を動的に制御する、
前記(2)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記制御部は、前記認識された操作体と前記情報処理装置との空間中の位置関係にさらに基づいて、前記音の出力を動的に制御する、
前記(2)〜(13)のいずれか一項に記載の情報処理装置。
(15)
プロセッサが、
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御することと、
前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御することと、
を含み、
前記操作領域は、ユーザが視認できない領域である、
情報処理方法。
(16)
コンピュータを、
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、
を備え、
前記制御部は、前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御し、
前記操作領域は、ユーザが視認できない領域である、
情報処理装置、
として機能させるためのプログラム。
(1)
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、
を備え、
前記制御部は、前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御し、
前記操作領域は、ユーザが視認できない領域である、
情報処理装置。
(2)
前記制御部は、前記認識された操作体の位置に基づいて、前記認識された操作体が位置する前記操作領域に係る音の出力を動的に制御する、
前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記認識された操作体の位置が前記操作領域内であるか否かにさらに基づいて、前記音の出力を動的に制御する、
前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記操作体を前記操作領域に誘導するように、前記音の出力を動的に制御する、
前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記操作体による操作における基準となる基準領域に対する前記認識された操作体の位置に基づいて、前記音の出力を動的に制御する、
前記(2)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記制御部は、前記認識された操作体を前記基準領域に誘導するように、前記音の出力を動的に制御する、
前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記認識された操作体の位置が前記基準領域内である場合、前記認識された操作体の位置が前記基準領域内であることを報知するように、前記音の出力を動的に制御する、
前記(5)または(6)に記載の情報処理装置。
(8)
前記制御部は、前記操作体による操作が初めて開始する際の前記認識された操作体の位置を前記基準領域と決定する、
前記(5)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記制御部は、複数の前記操作領域が存在する場合、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(2)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記制御部は、前記認識された操作体が移動している場合、前記認識された操作体の移動方向にさらに基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(9)に記載の情報処理装置。
(11)
前記制御部は、前記認識された操作体の位置とそれぞれの前記操作領域との位置関係にさらに基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(2)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記操作領域との位置関係は、前記操作領域との距離であり、
前記制御部は、前記認識された操作体とそれぞれの前記操作領域との距離に基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記認識された操作体の前記操作領域内から前記操作領域外への移動が予想される場合、前記移動が予想されることを報知するように、前記音の出力を動的に制御する、
前記(2)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記制御部は、前記認識された操作体と前記情報処理装置との空間中の位置関係にさらに基づいて、前記音の出力を動的に制御する、
前記(2)〜(13)のいずれか一項に記載の情報処理装置。
(15)
プロセッサが、
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御することと、
前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御することと、
を含み、
前記操作領域は、ユーザが視認できない領域である、
情報処理方法。
(16)
コンピュータを、
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、
を備え、
前記制御部は、前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御し、
前記操作領域は、ユーザが視認できない領域である、
情報処理装置、
として機能させるためのプログラム。
10 情報処理端末
110 入力部
120 認識部
130 制御部
140 出力部
150 記憶部
160 通信部
110 入力部
120 認識部
130 制御部
140 出力部
150 記憶部
160 通信部
Claims (16)
- 認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、
を備え、
前記制御部は、前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御し、
前記操作領域は、ユーザが視認できない領域である、
情報処理装置。 - 前記制御部は、前記認識された操作体の位置に基づいて、前記認識された操作体が位置する前記操作領域に係る音の出力を動的に制御する、
請求項1に記載の情報処理装置。 - 前記制御部は、前記認識された操作体の位置が前記操作領域内であるか否かにさらに基づいて、前記音の出力を動的に制御する、
請求項2に記載の情報処理装置。 - 前記制御部は、前記操作体を前記操作領域に誘導するように、前記音の出力を動的に制御する、
請求項3に記載の情報処理装置。 - 前記制御部は、前記操作体による操作における基準となる基準領域に対する前記認識された操作体の位置に基づいて、前記音の出力を動的に制御する、
請求項2に記載の情報処理装置。 - 前記制御部は、前記認識された操作体を前記基準領域に誘導するように、前記音の出力を動的に制御する、
請求項5に記載の情報処理装置。 - 前記制御部は、前記認識された操作体の位置が前記基準領域内である場合、前記認識された操作体の位置が前記基準領域内であることを報知するように、前記音の出力を動的に制御する、
請求項5に記載の情報処理装置。 - 前記制御部は、前記操作体による操作が初めて開始する際の前記認識された操作体の位置を前記基準領域と決定する、
請求項5に記載の情報処理装置。 - 前記制御部は、複数の前記操作領域が存在する場合、それぞれの前記操作領域に対応する音の出力を動的に制御する、
請求項2に記載の情報処理装置。 - 前記制御部は、前記認識された操作体が移動している場合、前記認識された操作体の移動方向にさらに基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
請求項9に記載の情報処理装置。 - 前記制御部は、前記認識された操作体の位置とそれぞれの前記操作領域との位置関係にさらに基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
請求項2に記載の情報処理装置。 - 前記操作領域との位置関係は、前記操作領域との距離であり、
前記制御部は、前記認識された操作体とそれぞれの前記操作領域との距離に基づいて、それぞれの前記操作領域に対応する音の出力を動的に制御する、
請求項11に記載の情報処理装置。 - 前記制御部は、前記認識された操作体の前記操作領域内から前記操作領域外への移動が予想される場合、前記移動が予想されることを報知するように、前記音の出力を動的に制御する、
請求項2に記載の情報処理装置。 - 前記制御部は、前記認識された操作体と前記情報処理装置との空間中の位置関係にさらに基づいて、前記音の出力を動的に制御する、
請求項2に記載の情報処理装置。 - プロセッサが、
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御することと、
前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御することと、
を含み、
前記操作領域は、ユーザが視認できない領域である、
情報処理方法。 - コンピュータを、
認識された操作体の位置に基づいて、認識された前記操作体が位置する少なくとも1の操作領域に係る情報の出力を動的に制御する制御部、
を備え、
前記制御部は、前記認識された操作体が前記操作領域内に位置する場合、前記認識された操作体が位置する前記操作領域に対応する装置の機能の実行を制御し、
前記操作領域は、ユーザが視認できない領域である、
情報処理装置、
として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019067394A JP2020166641A (ja) | 2019-03-29 | 2019-03-29 | 情報処理装置、情報処理方法、及びプログラム |
CN202080023330.6A CN113632164A (zh) | 2019-03-29 | 2020-03-16 | 信息处理装置、信息处理方法和程序 |
US17/442,018 US12026430B2 (en) | 2019-03-29 | 2020-03-16 | Information processing device, information processing method, and program |
PCT/JP2020/011333 WO2020203208A1 (ja) | 2019-03-29 | 2020-03-16 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019067394A JP2020166641A (ja) | 2019-03-29 | 2019-03-29 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020166641A true JP2020166641A (ja) | 2020-10-08 |
Family
ID=72668380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019067394A Pending JP2020166641A (ja) | 2019-03-29 | 2019-03-29 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2020166641A (ja) |
CN (1) | CN113632164A (ja) |
WO (1) | WO2020203208A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016051288A (ja) * | 2014-08-29 | 2016-04-11 | 株式会社デンソー | 車両用入力インターフェイス |
US9933995B2 (en) * | 2015-01-25 | 2018-04-03 | Harman International Industries, Incorporated | Headphones with integral image display |
JP2019533403A (ja) * | 2016-09-14 | 2019-11-14 | シェンジェン ロイオル テクノロジーズ カンパニー リミテッドShenzhen Royole Technologies Co., Ltd. | ヘッドホンアセンブリ、このヘッドホンアセンブリを具備するヘッドマウントヘッドホン及びヘッドマウント表示装置 |
-
2019
- 2019-03-29 JP JP2019067394A patent/JP2020166641A/ja active Pending
-
2020
- 2020-03-16 WO PCT/JP2020/011333 patent/WO2020203208A1/ja active Application Filing
- 2020-03-16 CN CN202080023330.6A patent/CN113632164A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220179613A1 (en) | 2022-06-09 |
CN113632164A (zh) | 2021-11-09 |
WO2020203208A1 (ja) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11388280B2 (en) | Device, method, and graphical user interface for battery management | |
JP6408156B2 (ja) | 多表面コントローラ | |
US20230020542A1 (en) | Systems, Methods, and Graphical User Interfaces for Using Spatialized Audio During Communication Sessions | |
JP2018110000A (ja) | 触覚効果によるフィードフォワード及びフィードバックのためのシステム及び方法 | |
US10089061B2 (en) | Electronic device and method | |
US20110216075A1 (en) | Information processing apparatus and method, and program | |
KR20140001149A (ko) | 햅틱 피드백 제어 시스템 | |
US10238964B2 (en) | Information processing apparatus, information processing system, and information processing method | |
JP7204804B2 (ja) | スマートバックミラーのインタラクション方法、装置、電子機器及び記憶媒体 | |
KR20150142462A (ko) | 전자 장치 및 그 제어 방법 | |
CN111338594A (zh) | 使用指纹的输入控制 | |
KR20140096573A (ko) | 컨텐츠 재생을 제어하기 위한 방법 및 장치 | |
WO2013097306A1 (zh) | 耳机控制方法及耳机 | |
KR101210538B1 (ko) | 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체 | |
WO2020203208A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2020203425A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111656303A (zh) | 数据处理装置的手势控制 | |
US10732720B2 (en) | Input axis between an apparatus and a separate apparatus | |
WO2019054037A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US12026430B2 (en) | Information processing device, information processing method, and program | |
JP2008181367A (ja) | ミュージックプレーヤ | |
KR20200031062A (ko) | 이어셋 제어 방법 및 시스템 | |
WO2024070085A1 (ja) | 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法 | |
KR102197912B1 (ko) | 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체 | |
JP6433217B2 (ja) | 音量制御装置、音量制御システム、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190614 |