JP2020042369A - 情報処理装置、情報処理方法及び記録媒体 - Google Patents

情報処理装置、情報処理方法及び記録媒体 Download PDF

Info

Publication number
JP2020042369A
JP2020042369A JP2018167323A JP2018167323A JP2020042369A JP 2020042369 A JP2020042369 A JP 2020042369A JP 2018167323 A JP2018167323 A JP 2018167323A JP 2018167323 A JP2018167323 A JP 2018167323A JP 2020042369 A JP2020042369 A JP 2020042369A
Authority
JP
Japan
Prior art keywords
information processing
user
output
distance
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018167323A
Other languages
English (en)
Inventor
友久 田中
Tomohisa Tanaka
友久 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018167323A priority Critical patent/JP2020042369A/ja
Priority to PCT/JP2019/034309 priority patent/WO2020050186A1/ja
Priority to US17/250,728 priority patent/US20210303258A1/en
Publication of JP2020042369A publication Critical patent/JP2020042369A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】光学系を利用した技術におけるユーザの空間の認識性を向上させることができる情報処理装置、情報処理方法及び記録媒体を提供する。【解決手段】本開示に係る情報処理装置は、実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得する取得部と、取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う出力制御部とを有する。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法及び記録媒体に関する。詳しくは、ユーザの動作に応じた出力信号の制御処理に関する。
AR(Augmented Reality)やMR(Mixed Reality)、VR(Virtual Reality)技術等において、仮想オブジェクトを表示する画像処理や、センシングに基づく認識によって機器の操作を可能とする技術が用いられている。
例えば、オブジェクトの合成において、撮像画像に含まれる被写体の深度情報を取得してエフェクト処理を実行することにより、被写体が適切な範囲内に存在するか否かを分かり易く伝えることのできる技術が知られている。また、HMD(Head Mounted Display)等を装着したユーザの手を高精度に認識することのできる技術が知られている。
特開2013−118468号公報 国際公開第2017/104272号
ここで、上記の従来技術には改善の余地がある。例えば、ARやMR技術において、ユーザは、実空間上に重畳された仮想オブジェクトに対して手で触れるなどの何らかのインタラクション(interaction)を求められることがある。
しかし、人間の視覚の特性上、ユーザは、近距離に表示された仮想オブジェクトへの距離感を認識し辛いため、手で触れようと思っても手が届いていなかったり、逆に仮想オブジェクトよりも奥に手を出してしまったりすることがある。すなわち、従来技術では、実空間上に重畳される仮想オブジェクトに対するユーザの認識性を向上させることが困難であった。
そこで、本開示では、光学系を利用した技術におけるユーザの空間の認識性を向上させることができる情報処理装置、情報処理方法及び記録媒体を提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得する取得部と、前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う出力制御部と、を具備する。
本開示に係る情報処理装置、情報処理方法及び記録媒体によれば、光学系を利用した技術におけるユーザの空間の認識性を向上させることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の実施形態に係る情報処理の概要を示す図である。 本開示の第1の実施形態に係る情報処理装置の外観を示す図である。 本開示の第1の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第1の実施形態に係る出力定義データの一例を示す図である。 本開示の第1の実施形態に係る情報処理を説明するための図(1)である。 本開示の第1の実施形態に係る情報処理を説明するための図(2)である。 本開示の第1の実施形態に係る情報処理を説明するための図(3)である。 本開示の第1の実施形態に係る処理の流れを示すフローチャート(1)である。 本開示の第1の実施形態に係る処理の流れを示すフローチャート(2)である。 本開示の第1の実施形態に係る処理の流れを示すフローチャート(3)である。 本開示の第2の実施形態に係る情報処理を説明するための図(1)である。 本開示の第2の実施形態に係る情報処理装置の構成例を示す図である。 本開示の第2の実施形態に係る出力定義データの一例を示す図である。 本開示の第2の実施形態に係る情報処理を説明するための図(2)である。 本開示の第2の実施形態に係る情報処理を説明するための図(3)である。 本開示の第2の実施形態に係る処理の流れを示すフローチャート(1)である。 本開示の第2の実施形態に係る処理の流れを示すフローチャート(2)である。 本開示の第2の実施形態に係る処理の流れを示すフローチャート(3)である。 本開示の第3の実施形態に係る情報処理システムの構成例を示す図である。 本開示の第4の実施形態に係る情報処理システムの構成例を示す図である。 本開示の第4の実施形態に係る情報処理を説明するための図である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
(1.第1の実施形態)
[1−1.第1の実施形態に係る情報処理の概要]
図1は、本開示の第1の実施形態に係る情報処理の概要を示す図である。本開示の第1の実施形態に係る情報処理は、図1に示す情報処理装置100によって実行される。
情報処理装置100は、いわゆるAR技術等を実現するための情報処理端末である。第1の実施形態では、情報処理装置100は、ユーザU01の頭部に装着されて利用されるウェアラブルコンピュータ(wearable computer)であり、具体的にはARグラス(AR glass)である。
情報処理装置100は、透過型のディスプレイである表示部61を有する。例えば、情報処理装置100は、現実の実空間上に重畳させて、CG(Computer Graphics)等で表現される重畳物を表示部61に表示する。図1の例では、情報処理装置100は、重畳物として仮想オブジェクトV01を表示する。また、情報処理装置100は、所定の出力信号を出力するための構成を有する。例えば、情報処理装置100は、自装置が備えるスピーカーや、ユーザU01が装着するイヤホン等に音声信号を出力する制御部を有する。なお、図1の例では、スピーカーやイヤホン等の図示は省略する。また、本開示において音声信号とは、人間や動物の声等のみならず、効果音やBGM等、種々の音を含むものとする。
AR技術によれば、ユーザU01は、実空間上における任意の入力手段を用いて、仮想オブジェクトV01に触れたり、仮想オブジェクトV01を手に取ったりといった、インタラクションを実行することができる。任意の入力手段とは、ユーザが操作するオブジェクトであって、情報処理装置100が空間上において認識可能なオブジェクトである。例えば、任意の入力手段は、ユーザの手や足などの体の一部や、ユーザが手に持ったコントローラ等である。第1の実施形態では、ユーザU01は、入力手段として自身の手H01を用いる。この場合、仮想オブジェクトV01に手H01が触れるとは、例えば、ユーザU01が仮想オブジェクトV01に触れたと情報処理装置100が認識する所定の座標空間内に手H01が存在することをいう。
ユーザU01は、表示部61を透過して視認する実空間と、実空間に重畳された仮想オブジェクトV01とを視認可能である。そして、ユーザU01は、手H01を用いて、仮想オブジェクトV01に触れるインタラクションを実行する。
しかしながら、人間の視覚の特性上、ユーザU01は、近距離(例えば視点から50cm程の範囲)に表示された仮想オブジェクトV01への距離感を認識し辛い。これは、人間の目の構造上、表示部61の光学的な焦点距離および左右の輻輳の角度が固定されていると、仮想オブジェクトV01の両眼視差(ステレオ視)で提示される距離感と、輻輳と調節が矛盾するために生じうる。このため、ユーザU01は、触れたと思っても仮想オブジェクトV01に手H01が届いていなかったり、逆に仮想オブジェクトV01よりも奥に手H01を出してしまったりすることがある。また、ユーザU01は、仮想オブジェクトV01に対するインタラクションがAR機器に認識されていない場合に、どこに手H01を動かせばインタラクションが認識されるかを判断することが難しく、位置の修正が難しい。
そこで、本開示に係る情報処理装置100は、光学系を利用したAR等の技術における認識性を向上させるため、下記に説明する情報処理を実行する。具体的には、情報処理装置100は、実空間上においてユーザU01によって操作される第1のオブジェクト(図1の例では手H01)と、表示部61に表示された第2のオブジェクト(図1の例では仮想オブジェクトV01)との間の距離の変化を取得する。そして、情報処理装置100は、取得した距離の変化に基づいて、出力信号の態様を連続的に変化させる制御(以下、「第1の制御」と称する場合がある)を行う。より具体的には、情報処理装置100は、手H01と仮想オブジェクトV01の間の距離の変化に応じて、振動出力装置(例えばスピーカー)による振動出力(例えば、音の出力)を連続的に変化させる。これにより、ユーザU01は、音に応じて手H01を出す位置を修正することができるようになり、仮想オブジェクトV01の位置が手H01からまだ遠いか、あるいは、手H01の近くにあるのかを判断し易くなる。すなわち、本開示に係る情報処理によれば、AR技術等におけるユーザU01の空間の認識性を向上させることができる。なお、詳細は後述するが、振動出力装置による振動出力には、音による出力のほか、振動による出力を含む。以下、図1を用いて、本開示に係る情報処理を流れに沿って説明する。
図1に示す例では、ユーザU01は、実空間上に重畳された仮想オブジェクトV01を手H01で触れるというインタラクションを実行する。このとき、情報処理装置100は、ユーザU01が掲げた手H01の空間上の位置を取得する。詳細は後述するが、情報処理装置100は、ユーザU01の視線方向をカバーする認識カメラ等のセンサを用いて、表示部61を透過してユーザU01が視認する実空間に存在する手H01を認識し、手H01の位置を取得する。また、情報処理装置100は、表示部61内に表示する実空間を座標空間として認識することで、実空間に重畳させた仮想オブジェクトV01の位置を取得する。
さらに、情報処理装置100は、ユーザU01が仮想オブジェクトV01の方向に手H01を伸ばす間に、手H01と仮想オブジェクトV01との間の距離を取得する。そして、情報処理装置100は、手H01と仮想オブジェクトV01との間の距離に応じて、音声信号の出力を制御する。
図1の例では、情報処理装置100は、一定の周期で繰り返される効果音のような音声信号を連続的に出力する。例えば、情報処理装置100は、手H01と仮想オブジェクトV01との間の距離に応じて所定の区間に領域を分類し、分類した領域ごとに異なる態様で音声信号を出力し続ける。なお、情報処理装置100は、いわゆる立体音響技術を用いて、手H01の方角から音声が出力されているようにユーザU01に知覚させる制御を行ってもよい。
図1に示すように、情報処理装置100は、例えば手H01と仮想オブジェクトV01との距離が距離L02以上(例えば50cm以上)である領域A01では、音声F01を出力する。また、情報処理装置100は、手H01と仮想オブジェクトV01との距離が距離L02未満、距離L01以上(例えば50cm未満20cm以上)である領域A02内では、音声F02を出力する。また、情報処理装置100は、手H01と仮想オブジェクトV01との距離が距離L01未満(例えば20cm未満)である領域A03では、音声F02を出力する。
例えば、情報処理装置100は、音声F01から音声F02への変化、音声F02から音声F03への変化において、音声出力の態様が連続的に変化するよう制御する。具体的には、情報処理装置100は、音声F01よりも音声F02における音量が大きくなるよう制御する。あるいは、情報処理装置100は、音声F01よりも音声F02における周期が短く(すなわち、効果音の再生の繰り返しの周期が短く)なるよう制御してもよい。あるいは、情報処理装置100は、音声F01よりも音声F02における音声の周波数が高く(あるいは低く)なるよう制御してもよい。
一例として、情報処理装置100は、領域A01に手H01が存在する場合、周期0.5Hzで効果音を出力する。また、情報処理装置100は、領域A02に手H01が存在する場合、領域A01において出力した音量よりも2割増しの音量で、領域A01において出力した音声よりも高音で、さらに、周期を1Hzとした効果音を再生する。また、情報処理装置100は、領域A03に手H01が存在する場合、領域A02において出力した音量よりも2割増しの音量で、領域A02において出力した音声よりも高音で、さらに、周期を2Hzとした効果音を再生する。
このように、情報処理装置100は、手H01と仮想オブジェクトV01との距離に応じて連続的に態様が変化する音声を出力する。すなわち、情報処理装置100は、手H01の動きに応じた音響的なフィードバック(以下、「音響フィードバック」と称する)をユーザU01に提供する。これにより、ユーザU01は、手H01が仮想オブジェクトV01に近づくほど音量が大きくなっていたり、音声の繰り返しの周期が増加していたりするといった連続的な変化を知覚できる。すなわち、ユーザU01は、音響フィードバックを受けることで、手H01が仮想オブジェクトV01に近づいているか、あるいは遠ざかっているかを正確に認識することができる。
そして、情報処理装置100は、手H01と仮想オブジェクトV01との距離が0未満となった場合、すなわち、「仮想オブジェクトV01に手H01が触れた」と認識される領域A04に手H01が存在する場合には、領域A03で出力した音声よりもさらに大きな音量や高い周波数や大きな周期で音声を出力してもよい。
なお、情報処理装置100は、領域A04に手H01が存在する場合には、出力態様の連続的な変化を一度停止し、仮想オブジェクトV01に触れたことを示す他の効果音を出力してもよい。これにより、ユーザU01は、手H01が仮想オブジェクトV01に到達したことを正確に認識できる。すなわち、情報処理装置100は、領域A03から領域A04に手が到達した場合には、音声の連続的な変化を維持してもよいし、音声の連続的な変化を一度停止してもよい。
このように、第1の実施形態に係る情報処理装置100は、実空間上においてユーザU01によって操作される手H01と、表示部61に表示された仮想オブジェクトV01との間の距離の変化を取得する。さらに、情報処理装置100は、取得した距離の変化に基づいて、音声信号の態様を連続的に変化させる制御を行う。
すなわち、情報処理装置100は、距離に応じて態様が連続的に変化する音声を出力することで、視覚のみならず、聴覚によって仮想オブジェクトV01との距離をユーザU01が認識することを可能にする。これにより、第1の実施形態に係る情報処理装置100は、視覚のみでは認識し辛い、実空間上に重畳された仮想オブジェクトV01に対するユーザU01の認識性を向上させることができる。また、本開示の情報処理によれば、ユーザU01は、視覚のみに頼らずにインタラクションを実行することができるので、上述した輻輳と調節の矛盾により生じうる眼精疲労等を軽減することができる。すなわち、情報処理装置100は、AR等の光学系を利用した技術におけるユーザビリティを向上させることもできる。
以下、上記の情報処理を実現する情報処理装置100の構成等について、図を用いて詳細に説明する。
[1−2.第1の実施形態に係る情報処理装置の外観]
まず、図2を用いて、情報処理装置100の外観を説明する。図2は、本開示の第1の実施形態に係る情報処理装置100の外観を示す図である。図2に示すように、情報処理装置100は、センサ20と、表示部61と、保持部70を有する。
保持部70は、メガネフレームに相当する構成である。また、表示部61は、メガネレンズに相当する構成である。保持部70は、情報処理装置100がユーザに装着された場合に、表示部61がユーザの眼前に位置するように、表示部61を保持する。
センサ20は、種々の環境情報を検知するセンサである。例えば、センサ20は、ユーザの眼前の空間を認識するための認識カメラとしての機能を有する。図2の例では、センサ20を一つのみ図示しているが、センサ20は、表示部61の各々に備えられた、いわゆるステレオカメラであってもよい。
センサ20は、ユーザの頭部が向いた方向(即ち、ユーザの前方)を向くように、保持部70により保持される。かかる構成に基づき、センサ20は、情報処理装置100の前方に位置する被写体(すなわち、実空間に位置する実オブジェクト)を認識する。また、センサ20は、ユーザの前方に位置する被写体の画像を取得するとともに、ステレオカメラで撮像された画像間の視差に基づき、情報処理装置100(言い換えれば、ユーザの視点の位置)から被写体までの距離を算出することが可能となる。
なお、情報処理装置100と被写体との間の距離を測定可能であれば、その構成や方法は特に限定されない。具体的な一例として、マルチカメラステレオ、移動視差、TOF(Time Of Flight)、Structured Light等の方式に基づき、情報処理装置100と被写体との間の距離が測定されてもよい。TOFとは、被写体に対して赤外線等の光を投光し、投稿した光が当該被写体で反射して戻るまでの時間を画素ごとに測定することで、測定結果に基づき被写体までの距離(深度)を含めた画像(いわゆる距離画像)を得る方式である。また、Structured Lightとは、被写体に対して赤外線等の光によりパターンを照射しそれを撮像することで、撮像結果から得られるパターンの変化に基づき、被写体までの距離(深度)を含めた距離画像を得る方式である。また、移動視差とは、いわゆる単眼カメラにおいても、視差に基づき被写体までの距離を測定する方法である。具体的には、カメラを移動させることで、被写体を互いに異なる視点から撮像し、撮像された画像間の視差に基づき被写体までの距離を測定する。なお、このとき各種センサによりカメラの移動距離及び移動方向を認識することで、被写体までの距離をより精度良く測定することが可能となる。なお、距離の測定方法に応じて、センサ20の方式(例えば、単眼カメラ、ステレオカメラ等)は、適宜変更されてもよい。
また、センサ20は、ユーザの前方のみならず、ユーザ自身の情報を検知してもよい。例えば、センサ20は、情報処理装置100がユーザの頭部に装着されたときに、撮像範囲内にユーザの眼球が位置するように保持部70により保持される。そして、センサ20は、撮像したユーザの右眼の眼球の画像と、右眼との間の位置関係とに基づき、右眼の視線が向いている方向を認識する。同様に、センサ20は、撮像したユーザの左眼の眼球の画像と、左眼との間の位置関係とに基づき、左眼の視線が向いている方向を認識する。
また、センサ20は、認識カメラとしての機能のほか、ユーザの身体の向き、傾き、動きや移動速度等、ユーザの動作に関する各種情報を検知する機能を有してもよい。具体的には、センサ20は、ユーザの動作に関する情報として、ユーザの頭部や姿勢に関する情報、ユーザの頭部や身体の動き(加速度や角速度)、視野の方向や視点移動の速度等を検知する。例えば、センサ20は、3軸加速度センサや、ジャイロセンサや、速度センサ等の各種モーションセンサとして機能し、ユーザの動作に関する情報を検知する。より具体的には、センサ20は、ユーザの頭部の動きとして、ヨー(yaw)方向、ピッチ(pitch)方向、及びロール(roll)方向それぞれの成分を検出することで、ユーザの頭部の位置及び姿勢のうち少なくともいずれかの変化を検知する。なお、センサ20は、必ずしも情報処理装置100に備えられることを要せず、例えば、情報処理装置100と有線もしくは無線で接続される外部センサであってもよい。
また、図2では図示を省略するが、情報処理装置100は、ユーザからの入力を受け付ける操作部を有してもよい。例えば、操作部は、タッチパネルやボタン等のような入力デバイスにより構成される。例えば、操作部は、メガネのテンプルに相当する位置に保持されてもよい。また、情報処理装置100は、音声等の信号を出力する振動出力装置(スピーカー等)を外観に備えてもよい。なお、本開示に係る振動出力装置とは、情報処理装置100に内蔵された出力部(内蔵スピーカー等)であってもよい。また、情報処理装置100は、本開示に係る情報処理を実行する制御部30(図3を参照)等を内蔵する。
以上のような構成に基づき、本実施形態に係る情報処理装置100は、ユーザの頭部の動きに応じた、実空間上におけるユーザ自身の位置や姿勢の変化を認識する。また、情報処理装置100は、認識した情報に基づき、いわゆるAR技術を利用して、実空間上に位置する実オブジェクトに対して仮想的なコンテンツ(すなわち仮想オブジェクト)が重畳するように、表示部61にコンテンツを表示する。
このとき、情報処理装置100は、例えば、SLAM(simultaneous localization and mapping)と称される技術等に基づき、実空間上における自装置の位置及び姿勢を推定してもよく、かかる推定結果を仮想オブジェクトの表示処理に利用してもよい。
SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像された動画像に基づき、撮像されたシーン(または被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、環境における撮像部(図2の例ではセンサ20、言い換えれば情報処理装置100)の位置及び姿勢の推定とが行われる。なお、情報処理装置100の位置及び姿勢については、上述のように、センサ20が有する加速度センサや角速度センサ等の各種センサ機能を利用して各種情報を検出し、検出結果に基づき相対的な変化を示す情報として推定することが可能である。なお、情報処理装置100の位置及び姿勢を推定可能であれば、その手法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみに限定されない。
また、情報処理装置100として適用可能な頭部装着型の表示装置(HMD)の例としては、例えば、シースルー型HMD、ビデオシースルー型HMD、及び網膜投射型HMDが挙げられる。
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系をユーザの眼前に保持し、虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着したユーザは、虚像光学系の内側に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。かかる構成により、シースルー型HMDは、例えばAR技術に基づき、シースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることができる。なお、シースルー型HMDの具体的な一例として、メガネのレンズに相当する部分を虚像光学系として構成した、いわゆるメガネ型のウェアラブルデバイスが挙げられる。例えば、図2に示した情報処理装置100は、シースルー型HMDの一例に相当する。
また、ビデオシースルー型HMDは、ユーザの頭部または顔部に装着された場合に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。また、ビデオシースルー型HMDは、周囲の風景を撮像するための撮像部を有し、当該撮像部により撮像されたユーザの前方の風景の画像を表示部に表示させる。かかる構成により、ビデオシースルー型HMDを装着したユーザは、外部の風景を直接視野に入れることは困難ではあるが、表示部に表示された画像により、外部の風景を確認することができる。また、ビデオシースルー型HMDは、例えばAR技術に基づき、ビデオシースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、外部の風景の画像に対して仮想オブジェクトを重畳させてもよい。
網膜投射型HMDは、ユーザの眼前に投影部が保持されており、投影部からユーザの眼に向けて、外部の風景に対して画像が重畳するように画像が投影される。具体的には、網膜投射型HMDでは、ユーザの眼の網膜に対して、投影部から画像が直接投射され、画像が網膜上で結像する。かかる構成により、近視や遠視のユーザの場合においても、より鮮明な映像を視聴することが可能となる。また、網膜投射型HMDを装着したユーザは、投影部から投影される画像を視聴している間も、外部の風景を視野に入れることが可能となる。かかる構成により、網膜投射型HMDは、例えばAR技術に基づき、網膜投射型HMDの位置や姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることができる。
上記では、AR技術を適用することを前提として、第1の実施形態に係る情報処理装置100の外観構成の一例について説明したが、情報処理装置100の外観構成は、上記した例に限られない。例えば、VR技術を適用することを想定した場合には、情報処理装置100は、没入型HMDと呼ばれるHMDとして構成されていてもよい。没入型HMDは、ビデオシースルー型HMDと同様に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。そのため、没入型HMDを装着したユーザは、外部の風景(すなわち実空間)を直接視野に入れることが困難であり、表示部に表示された映像のみが視界に入ることとなる。この場合、没入型HMDでは、撮像した実空間と、重畳した仮想オブジェクトの双方とを表示部に表示する制御を行う。すなわち、没入型HMDでは、透過した実空間に仮想オブジェクトを重畳するのではなく、撮像した実空間に仮想オブジェクトを重畳させ、実空間及び仮想オブジェクトの双方をディスプレイに表示する。かかる構成によっても、本開示に係る情報処理は実現可能である。
[1−3.第1の実施形態に係る情報処理装置の構成]
次に、図3を用いて、本開示に係る情報処理を実行する情報処理システム1について説明する。第1の実施形態では、情報処理システム1は、情報処理装置100を含む。図3は、本開示の第1の実施形態に係る情報処理装置100の構成例を示す図である。
図3に示すように、情報処理装置100は、センサ20と、制御部30と、記憶部50と、出力部60とを含む。
センサ20は、図2で説明したように、情報処理装置100に関する各種情報を検知する装置や素子である。
制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部30は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
図3に示すように、制御部30は、認識部31と、取得部32と、出力制御部33とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部30の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。なお、制御部30は、例えばNIC(Network Interface Card)等を用いて所定のネットワークと有線又は無線で接続し、ネットワークを介して、種々の情報を外部サーバ等から受信してもよい。
認識部31は、各種情報の認識処理を行う。例えば、認識部31は、センサ20を制御し、センサ20を用いて種々の情報を検知する。そして、認識部31は、センサ20が検知した情報に基づいて、種々の情報の認識処理を行う。
例えば、認識部31は、ユーザの手が空間上のどの位置にあるかを認識する。具体的には、認識部31は、センサ20の一例である認識カメラによって撮像される映像に基づいて、ユーザの手の位置を認識する。かかる手認識処理については、認識部31は、種々の既知のセンシングに係る技術を用いてもよい。
例えば、認識部31は、センサ20に含まれるカメラによって取得される撮像画像を解析し、実空間上に存在する実オブジェクトの認識処理を行う。認識部31は、例えば撮像画像から抽出される画像特徴量を、記憶部50に記憶される既知の実オブジェクト(具体的にはユーザの手など、ユーザに操作されるオブジェクト)の画像特徴量と照合する。そして、認識部31は、撮像画像中の実オブジェクトを識別し、撮像画像における位置を認識する。また、認識部31は、センサ20に含まれるカメラによって取得される撮像画像を解析し、実空間の三次元形状情報を取得する。例えば、認識部31は、同時に取得された複数画像に対するステレオマッチング法や、時系列的に取得された複数画像に対するSfM(Structure from Motion)法、SLAM法等を行うことで、実空間の三次元形状を認識し、三次元形状情報を取得してもよい。また、認識部31が実空間の三次元形状情報を取得可能な場合、認識部31は、実オブジェクトの三次元的な位置、形状、サイズ、及び姿勢を認識してもよい。
また、認識部31は、実オブジェクトの認識に限らず、センサ20により検知されたセンシングデータに基づいて、ユーザに関するユーザ情報、及びユーザの置かれた環境に関する環境情報を認識してもよい。
ユーザ情報とは、例えば、ユーザの行動を示す行動情報、ユーザの動きを示す動き情報、生体情報、注視情報等を含む。行動情報は、例えば、静止中、歩行中、走行中、自動車運転中、階段昇降中等ユーザの現在の行動を示す情報であり、センサ20により取得された加速度等のセンシングデータを解析することで認識される。また、動き情報は、移動速度、移動方向、移動加速度、コンテンツの位置への接近等の情報であり、センサ20により取得された加速度、GPSデータ等のセンシングデータ等から認識される。また、生体情報は、ユーザの心拍数、体温発汗、血圧、脈拍、呼吸、瞬目、眼球運動、脳波等の情報であり、センサ20に含まれる生体センサによるセンシングデータに基づいて認識される。また、注視情報は、視線、注視点、焦点、両眼の輻輳等のユーザの注視に関する情報であり、センサ20に含まれる視覚センサによるセンシングデータに基づいて認識される。
また、環境情報とは、例えば、周辺状況、場所、照度、高度、気温、風向き、風量、時刻等の情報を含む。周辺状況の情報は、センサ20に含まれるカメラやマイクによるセンシングデータを解析することで認識される。また、場所の情報は、例えば、屋内、屋外、水中、危険な場所等、ユーザがいる場所の特性を示す情報でもよいし、自宅、会社、慣れた場所、初めて訪れる場所等、当該場所のユーザにとっての意味を示す情報でもよい。場所の情報は、センサ20に含まれるカメラやマイク、GPSセンサ、照度センサ等によるセンシングデータを解析することで認識される。また、照度、高度、気温、風向き、風量、時刻(例えばGPS時刻)の情報も同様に、センサ20に含まれる各種センサにより取得されるセンシングデータに基づいて認識されてもよい。
取得部32は、実空間上においてユーザによって操作される第1のオブジェクトと、表示部61に表示された第2のオブジェクトとの間の距離の変化を取得する。
取得部32は、実空間上に重畳される仮想オブジェクトとして表示部61に表示された第2のオブジェクトと、第1のオブジェクトの間の距離の変化を取得する。すなわち、第2のオブジェクトとは、AR技術等によって表示部61内に重畳される仮想オブジェクトである。
取得部32は、第1のオブジェクトとして、センサ20によって検出されるユーザの手に関する情報を取得する。すなわち、取得部32は、認識部31によって認識されたユーザの手の空間座標位置と、表示部61に表示された仮想オブジェクトの空間座標位置に基づいて、ユーザの手と仮想オブジェクトとの距離の変化を取得する。
取得部32が取得する情報について、図5を用いて説明する。図5は、本開示の第1の実施形態に係る情報処理を説明するための図(1)である。図5に示す例では、ユーザの手H01と、取得部32が取得する距離Lと、仮想オブジェクトV01との関係を模式的に示す。
取得部32は、認識部31によって手H01が認識された場合、認識された手H01に含まれる任意の座標HP01を設定する。例えば、座標HP01は、認識された手H01の略中心等に設定される。また、取得部32は、仮想オブジェクトV01において、仮想オブジェクトV01にユーザの手が触れたと認識される座標を設定する。この場合、取得部32は、1点のみの座標ではなく、ある程度の空間の広がりを有するために複数の座標を設定する。これは、ユーザが正確に仮想オブジェクトV01内の1点の座標に手で触れることは困難であるため、ある程度の空間範囲を設定し、ユーザが仮想オブジェクトV01に「触れる」ことをある程度容易にするためである。
そして、取得部32は、座標HP01と、仮想オブジェクトV01に設定された任意の座標(いずれか特定の座標でもよいし、複数の座標の中心点や重心等であってもよい)との距離Lを取得する。
続いて、図6及び図7を用いて、取得部32が手H01と仮想オブジェクトV01との距離を取得する際に行われる処理について説明する。図6は、本開示の第1の実施形態に係る情報処理を説明するための図(2)である。図6では、ユーザの頭部の位置から見た、情報処理装置100がオブジェクトを認識する画角を示している。領域FV01は、センサ20(認識カメラ)がオブジェクトを認識可能な範囲を示している。すなわち、情報処理装置100は、領域FV01に含まれるオブジェクトであれば、その空間座標を認識することができる。
続けて、図7を用いて、情報処理装置100が認識可能な画角について説明する。図7は、本開示の第1の実施形態に係る情報処理を説明するための図(3)である。図7では、認識カメラがカバーする画角を示した領域FV01、ディスプレイ(表示部61)の表示領域である領域FV02、ユーザの視野画角を示した領域FV03の各々の関係を模式的に示している。
認識カメラが領域FV01をカバーする場合、取得部32は、領域FV01の内側に手H01が存在する場合に、手H01と仮想オブジェクトV01との距離を取得可能となる。一方、取得部32は、領域FV01の外側に手H01が存在する場合には手H01を認識できないため、手H01と仮想オブジェクトV01との距離が取得できない。なお、後述するように、領域FV01に外側に手H01が存在する場合と、内側に手H01が存在する場合とでは、ユーザは、異なる音響フィードバックを受けることができるため、手H01が情報処理装置100に認識されているか否かを判断することができる。
出力制御部33は、取得部32によって取得された距離の変化に基づいて、出力信号の態様を連続的に変化させる第1の制御を行う。
例えば、出力制御部33は、出力信号として、振動出力装置に音声を出力させるための信号を出力する。振動出力装置とは、例えば、情報処理装置100が有する音響出力部62や、ユーザが装着するイヤホンや、情報処理装置100と通信可能なワイヤレススピーカー等である。
出力制御部33は、第1の制御として、取得部32によって取得された距離の変化に基づいて出力する音声信号の態様を連続的に変化させる制御を行う。具体的には、出力制御部33は、取得部32によって取得された距離の変化に基づいて、出力する音声の音量、周期もしくは周波数の少なくともいずれか一つを連続的に変化させる。すなわち、出力制御部33は、ユーザの手と仮想オブジェクトとの距離の変化に応じて大きな音量を出力したり、短い周期で効果音を出力したりする等の音響フィードバックを行う。なお、連続的な変化とは、図1で示したように、ユーザの手が仮想オブジェクトへ近づくことに伴う一方向の変化(図1の例では音量の上昇や周期の増加など)をいう。連続的な変化には、図1で示したように、所定の距離ごとに段階的に音量が増加することや、周期が増加していくこと等を含む。
なお、出力制御部33は、第1のオブジェクトと第2のオブジェクトとの間の距離が所定閾値以下となった場合、第1の制御を停止してもよい。例えば、出力制御部33は、ユーザの手と仮想オブジェクトとが触れたと認識される距離まで到達した際には、連続的に出力を変化させる音響フィードバックを停止し、例えば、ユーザの手と仮想オブジェクトとが触れたことを示す特定の効果音を出力してもよい。
出力制御部33は、例えば、予め定義された距離の変化に基づいて、出力する音量や周期等を決定してもよい。すなわち、出力制御部33は、手と仮想オブジェクトとの距離が短くなるにつれて、連続的に音量等が変化するに設定を行う定義ファイルを読み込み、出力する音声信号を調整してもよい。例えば、出力制御部33は、記憶部50に記憶された定義ファイルを参照して出力を制御する。より具体的には、出力制御部33は、記憶部50に記憶された定義ファイルの定義(設定情報)を変数として参照し、出力する音声信号の音量や周期を制御する。
ここで、記憶部50について説明する。記憶部50は、例えば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部50は、各種データを一時的または恒常的に記憶するための記憶領域である。例えば、記憶部50には、情報処理装置100が各種機能を実行するためのデータ(例えば、本開示に係る情報処理プログラム)が記憶されていてもよい。また、記憶部50には、各種アプリケーションを実行するためのデータ(例えば、ライブラリ)や各種設定等を管理するための管理データ等が記憶されていてもよい。例えば、第1の実施形態に係る記憶部50は、データテーブルとして出力定義データ51を有する。
ここで、図4に、第1の実施形態に係る出力定義データ51について説明する。図4は、本開示の第1の実施形態に係る出力定義データ51の一例を示す図である。図4に示した例では、出力定義データ51は、「出力定義ID」、「出力信号」、「出力態様」といった項目を有する。また、「出力態様」は、「状態ID」、「距離」、「音量」、「周期」、「音色」といった小項目を有する。
「出力定義ID」は、出力信号の態様の定義を記憶したデータを識別する識別情報である。「出力信号」は、出力制御部33が出力する信号の種別である。「出力態様」は、具体的な出力の態様である。
「状態ID」は、第1のオブジェクトと第2のオブジェクトとの関係性がどのような状態にあるかを示した情報である。「距離」は、第1のオブジェクトと第2のオブジェクトとの具体的な距離である。なお、距離が「認識不可能」とは、例えば、ユーザの手がセンサ20に検知されない位置にあり、オブジェクト間の距離が取得されない状態を示す。言い換えれば、距離が「認識不可能」とは、第1のオブジェクトが図7で示した領域FV01の外側に存在する状態である。
また、図4に示すように、「状態#2」は、第1のオブジェクトと第2のオブジェクトとの距離が「50cm以上」であり、この状態とは、図1に示した領域A01に第1のオブジェクト(ユーザの手)が存在する状態であることを示す。同様に、「状態#3」は、図1に示した領域A02に第1のオブジェクトが存在する状態であることを示し、「状態#4」は、図1に示した領域A03に第1のオブジェクトが存在する状態であることを示し、「状態#5」は、図1に示した領域A04に第1のオブジェクトが存在する状態であることを示す。
「音量」は、対応する状態において、どのような音量で信号を出力するかを示す情報である。なお、図4の例では、音量の項目に「音量#1」といった概念的な情報が記憶される例を示しているが、実際には、音量の項目には、出力する音量を示した具体的な数値等が記憶される。これは、後述する周期や音色の項目も同様である。「周期」は、対応する状態において、どのような周期で信号を出力するかを示す情報である。「音色」は、対応する状態において、どのような音色(言い換えれば波形)で信号を出力するかを示す情報である。なお、図4での図示は省略しているが、出力定義データ51には、音量や周期や音色以外の音声を構成しうる要素に関する情報が記憶されていてもよい。
すなわち、図4に示した例では、出力定義ID「C01」で定義されるデータは、出力信号が「音声」に関するものであることを示している。また、状態IDが「状態#1」、すなわち、第1のオブジェクトと第2のオブジェクトとの距離が「認識不可能」な状態である場合、その出力態様は、音量が「音量#1」であり、周期が「周期#1」であり、音色が「音色#1」であることを示している。なお、「状態#1」は、第1のオブジェクトが認識されていない状態であるため、情報処理装置100は、音声信号を出力しなくてもよい。この場合、「音量#1」や「周期#1」といった項目には、音量や周期を発生させないことを示す情報が記憶される。
また、図4に示した例では、音声の出力態様として、5段階の状態に基づいて音量等が連続的に変化する例を示したが、音声の出力態様はこの例に限られない。すなわち、出力制御部33は、第1のオブジェクトと第2のオブジェクトとの距離と、出力する音量等が連動して連続的に変化するような出力制御を行ってもよい。
出力部60は、表示部61と、音響出力部62とを有し、出力制御部33の制御を受けて、種々の情報を出力する。例えば、表示部61は、透過した実空間に重畳させた仮想オブジェクトを表示する。また、音響出力部62は、音声信号を出力する。
[1−4.第1の実施形態に係る情報処理の手順]
次に、図8乃至図10を用いて、第1の実施形態に係る情報処理の手順について説明する。図8は、本開示の第1の実施形態に係る処理の流れを示すフローチャート(1)である。
図8に示すように、情報処理装置100は、まず、「前フレームの状態」という変数に対して、「状態#1」を入力することで、音響フィードバックの初期化を行う(ステップS101)。図8の例では、「状態#1」である場合、情報処理装置100は、一旦、音響フィードバックの再生を停止させる(ステップS102)。
次に、図9を用いて、情報処理装置100が音響フィードバックを実行する際の情報処理の手順について説明する。図9は、本開示の第1の実施形態に係る処理の流れを示すフローチャート(2)である。
まず、情報処理装置100は、センサ20を用いて、ユーザの手の位置が取得可能か否かを判定する(ステップS201)。ユーザの手の位置を取得できない場合(ステップS201;No)、情報処理装置100は、記憶部50内の出力定義データ51を参照し、ユーザの手の位置を取得可能できないという状況に対応する状態である「状態#1」を、変数「現フレームの状態」に代入する(ステップS202)。
一方、ユーザの手の位置を取得できた場合(ステップS201;Yes)、情報処理装置100は、重畳物の表面(例えば、図5で示した仮想オブジェクトV01に手H01が触れたと認識される範囲)と手の位置との距離Lを求める(ステップS203)。さらに、情報処理装置100は、距離Lが50cm以上であるか否かを判定する(ステップS203)。
距離Lが50cm以上である場合(ステップS204;Yes)、情報処理装置100は、出力定義データ51を参照し、距離Lが50cm以上であるという状況に対応する状態である「状態#2」を、変数「現フレームの状態」に代入する(ステップS205)。
一方、距離Lが50cm以上でない場合(ステップS204;No)、情報処理装置100は、さらに、距離Lが20cm以上であるか否かを判定する(ステップS206)。距離Lが20cm以上である場合(ステップS206;Yes)、情報処理装置100は、出力定義データ51を参照し、距離Lが20cm以上であるという状況に対応する状態である「状態#3」を、変数「現フレームの状態」に代入する(ステップS207)。
一方、距離Lが20cm以上でない場合(ステップS206;No)、情報処理装置100は、さらに、重畳物と手が接触している(すなわち、距離Lが0である)か否かを判定する(ステップS208)。重畳物と手が接触していない場合(ステップS208;No)、情報処理装置100は、出力定義データ51を参照し、距離Lが20cm未満で重畳物と手が接触していないという状況に対応する状態である「状態#4」を、変数「現フレームの状態」に代入する(ステップS209)。
一方、重畳物と手が接触している場合(ステップS208;Yes)、情報処理装置100は、出力定義データ51を参照し、重畳物と手が接触しているという状況に対応する状態である「状態#5」を、変数「現フレームの状態」に代入する(ステップS210)。
そして、情報処理装置100は、「現フレームの状態」と、「前フレームの状態」とが異なるか否かを判定する。情報処理装置100は、かかる判定の結果に応じて、音響フィードバックを行う。音響フィードバックの実行について、図10を用いて説明する。
図10は、本開示の第1の実施形態に係る処理の流れを示すフローチャート(3)である。図9のステップS211において、「現フレームの状態」と「前フレームの状態」とが異なると判定した場合(ステップS211;Yes)、情報処理装置100は、変数「前フレームの状態」に「現フレームの状態」を代入する(ステップS301)。
なお、図9のステップS211において、「現フレームの状態」と「前フレームの状態」とが同じと判定した場合(ステップS211;No)、情報処理装置100は、ステップS301の処理をスキップする。
そして、情報処理装置100は、各状態に対応した音響フィードバックのリピート再生を開始する(ステップS302)。リピート再生とは、例えば、継続的な周期で効果音を出力し続けることをいう。情報処理装置100は、上記図9及び図10の処理を、センサ20が撮像するフレーム(例えば、毎秒30回や毎秒60回)ごとに繰り返す。
(2.第2の実施形態)
[2−1.第2の実施形態に係る情報処理の概要]
次に、第2の実施形態について説明する。第1の実施形態では、情報処理装置100が、センサ20(認識カメラ)が認識可能な画角範囲内に存在するユーザの手と、実空間上の重畳された物体との距離を取得し、取得した距離に応じた音響フィードバックを行う例を示した。第2の実施形態では、認識カメラが認識可能な画角範囲外に存在するユーザの手が、新たに画角に入り込むような状況に対して音響フィードバックが行われる例を示す。
図11は、本開示の第2の実施形態に係る情報処理を説明するための図(1)である。図11は、図7と同様、情報処理装置100が認識可能な画角を概念的に示す図である。
ここで、第2の実施形態では、ユーザの視野画角を示した領域FV03よりも、認識カメラのカバーする領域FV04が広いものとする。なお、図11で示す領域FV05は、第2の実施形態に係るディスプレイの表示領域である。
図11に示すように、ユーザの視野画角である領域FV03よりも、認識カメラのカバーする領域FV04が広い場合、ユーザは、自身の手が見えないにもかかわらず、情報処理装置100に手の存在が認識される可能性がある。一方、図7のように、領域FV03よりも、認識カメラのカバーする領域FV02が狭い場合、ユーザは、自身の手が見えているにもかかわらず、情報処理装置100に手の存在が認識されない可能性がある。すなわち、AR技術等のように実空間に存在するオブジェクトを認識する技術においては、ユーザの知覚と、情報処理装置100の認識とに齟齬が生じる場合がある。このため、ユーザは、自身の手が認識されているか否かを不安に感じたり、せっかく操作を行っても認識が行われていなかったりするなど、体験を損なう場合がある。
そこで、第2の実施形態に係る情報処理では、ユーザの手と実空間上に重畳された物体との距離に基づく音響フィードバックのみならず、ユーザの手の認識に応じて、音響フィードバックを行う。これにより、ユーザは、自身の手がどのように情報処理装置100に認識されているかを音響的に判断できるので、AR技術等において正確な操作を行うことができる。以下、第2の実施形態に係る情報処理を行う情報処理システム2について説明する。
[2−2.第2の実施形態に係る情報処理装置の構成]
図12を用いて、本開示に係る情報処理を実行する情報処理システム2について説明する。第2の実施形態では、情報処理システム2は、情報処理装置100aを含む。図12は、本開示の第2の実施形態に係る情報処理装置100aの構成例を示す図である。なお、第1の実施形態と共通する構成については、説明を省略する。
第2の実施形態に係る情報処理装置100aは、記憶部50A内に出力定義データ51Aを有する。図13に、第2の実施形態に係る出力定義データ51Aについて説明する。図13は、本開示の第2の実施形態に係る出力定義データ51Aの一例を示す図である。図13に示した例では、出力定義データ51は、「出力定義ID」、「出力信号」、「出力態様」といった項目を有する。また、「出力態様」は、「状態ID」、「認識状態」、「音量」、「周期」、「音色」といった小項目を有する。
「認識状態」は、ユーザによって操作される第1のオブジェクト(例えばユーザの手)が、どのように情報処理装置100aに認識されているかを示す。例えば、「認識不可能」とは、第1のオブジェクトが情報処理装置100aから認識されていない状態を示す。また、「カメラ範囲外」とは、認識カメラの画角外に第1のオブジェクトが存在する場合を示す。なお、「カメラ範囲外」であり、かつ、情報処理装置100aが第1のオブジェクトを認識できている場合とは、例えば、第1のオブジェクトが何らかの信号(ペアリングに係る通信など)を発することにより、カメラでは認識できていないものの、他のセンサによって第1のオブジェクトが検知されている状態をいう。
また、「カメラ範囲内」とは、認識カメラの画角内に第1のオブジェクトが存在する場合を示す。また、「ユーザの視線範囲内」とは、ユーザの視覚に相当する画角で第1のオブジェクトを認識できている場合を示す。なお、ユーザの視覚に相当する画角とは、例えば、予め定義された、一般的に想定される人間の平均的な視界の画角等であってもよい。また、「ディスプレイ画角内」とは、情報処理装置100aの表示部61に表示される範囲の画角内に第1のオブジェクトが存在する場合を示す。
すなわち、第2の実施形態に係る情報処理では、情報処理装置100aが第1のオブジェクトを認識した状態(言い換えれば、オブジェクトの位置情報)に応じて、音声信号の出力を制御する。かかる処理を、第1の実施形態と区別するため「第2の制御」と称する。
例えば、第2の実施形態に係る取得部32は、表示部61の画角を超える検出範囲を有するセンサ20を用いて、第1のオブジェクトの位置を示す位置情報を取得する。具体的には、取得部32は、ユーザから見て表示部61の画角より広い検出範囲を有するセンサ20を用いて、第1のオブジェクトの位置を示す位置情報を取得する。より具体的には、取得部32は、表示部61のような透過ディスプレイに表示される画角(言い換えれば、ユーザの視野角)より広い検出範囲を有するセンサ20を用いる。すなわち、取得部32は、ディスプレイに表示されておらず、ユーザが認識しにくいユーザの手の動き等を取得する。そして、第2の実施形態に係る出力制御部33は、取得部32によって取得された位置情報に基づいて、出力信号の態様を変化させる第2の制御を行う。言い換えれば、出力制御部33は、取得された位置情報に基づいて、振動出力装置からの振動出力を変化させる。
例えば、出力制御部33は、第2の制御として、センサ20の検出範囲の境界への第1のオブジェクトの接近に応じて出力信号の態様を連続的に変化させる。すなわち、出力制御部33は、センサ20の検出範囲の境界への第1のオブジェクトの接近に応じて、振動出力装置からの振動出力を変化させる。これにより、ユーザは、センサ20から手が検出されなくなりそうな状態であること等を知覚することができる。
詳細は後述するが、出力制御部33は、第1のオブジェクトが、表示部61の画角外からセンサ20の検出範囲の境界へ接近する場合と、表示部61の画角内からセンサの検出範囲の境界へ接近する場合とで、異なる態様の出力信号を出力するよう制御する。言い換えれば、出力制御部33は、表示部61の画角外からセンサ20の検出範囲の境界へ接近する場合の振動出力と、表示部61の画角内からセンサ20の検出範囲の境界へ接近する場合の振動出力を異ならせる。
また、取得部32は、第1のオブジェクトのみならず、第2のオブジェクトの表示部61における位置情報を取得してもよい。この場合、出力制御部33は、表示部61の画角内から、表示部61の画角内と画角外との境界の近傍への第2のオブジェクトの接近に応じて、出力信号の態様を変化させる。
また、取得部32は、第1のオブジェクトがセンサ20によって検出不可能な状態から、センサ20によって検出可能な状態に遷移したことを示す情報を取得してもよい。そして、出力制御部33は、第1のオブジェクトがセンサ20によって検出可能な状態に遷移したことを示す情報が取得された場合に、振動出力装置からの振動出力(出力信号の態様)を変化させてもよい。具体的には、出力制御部33は、センサ20がユーザの手を新たに検知した場合に、その旨を示す効果音を出力してもよい。これにより、ユーザは、自身の手が認識されているか否かという不安な状態を払拭することができる。
なお、後述するように、出力制御部33は、第1の制御では音声信号を出力し、第2の制御では異なる種別の信号(例えば、振動に係る信号)を出力することで、第1の制御と第2の制御とを併用した場合であっても、双方の制御をユーザに別々に知覚させることができる。また、出力制御部33は、第1の制御における音声信号の音色と、第2の制御における音声信号の音色とを異なるものにするなどの制御を行ってもよい。
上記のように、出力制御部33は、第1のオブジェクトや第2のオブジェクトの位置情報を取得することで、例えば、ディスプレイ画角内やカメラ画角内から第1のオブジェクトが外れてしまいそうな状態をユーザに通知することができる。この点について、図14及び図15を用いて説明する。
図14は、本開示の第2の実施形態に係る情報処理を説明するための図(2)である。図14は、ディスプレイ画角である領域FV05に、ユーザの手H01と、仮想オブジェクトV02が表示されている状態を示す。図14の例では、ユーザは、AR空間において、ユーザの手H01を利用して移動可能な仮想オブジェクトV02を保持しているものとする。すなわち、ユーザは、表示部61内において、自身の手H01を動かすことで、仮想オブジェクトV02を動かすことができる。
ユーザが仮想オブジェクトV02を画面外近傍に動かした状態を図15に示す。図15は、本開示の第2の実施形態に係る情報処理を説明するための図(3)である。図15では、ユーザが仮想オブジェクトV02を画面外近傍に動かしたことにより、仮想オブジェクトV02が領域FV05外に移動されようとする状態を示す。
仮想オブジェクトV02は、表示部61内においてのみ実空間上に重畳されるため、領域FV05外に移動された場合、表示が消えてしまう。このため、情報処理装置100aは、ユーザによる仮想オブジェクトV02の移動に伴い、音響信号を出力するように制御してもよい。例えば、情報処理装置100aは、仮想オブジェクトV02の認識状態(言い換えれば、ユーザの手H01の認識状態)に応じて、画面外に近づいたことを示す警告音のような音声を出力してもよい。これにより、ユーザは、仮想オブジェクトV02が画面外に外れようとしている状態を容易に把握することができる。このように、情報処理装置100aは、オブジェクトの認識状態に応じて音声の出力を制御することで、ユーザの空間の認識性を向上させることができる。
[2−3.第2の実施形態に係る情報処理の手順]
次に、図16乃至図18を用いて、第2の実施形態に係る情報処理の手順について説明する。図16は、本開示の第2の実施形態に係る処理の流れを示すフローチャート(1)である。
図16に示すように、情報処理装置100aは、まず、「前フレームの状態」という変数に対して、「状態#6」を入力することで、音響フィードバックの初期化を行う(ステップS401)。図16の例では、情報処理装置100aは、「状態#6」に対応した音響フィードバックのリピート再生を開始する(ステップS402)。なお、情報処理装置100aは、定義された内容によっては、図8と同様に、音響フィードバックを停止させてもよい。
次に、図17を用いて、情報処理装置100aが音響フィードバックを実行する際の情報処理の手順について説明する。図17は、本開示の第2の実施形態に係る処理の流れを示すフローチャート(2)である。
まず、情報処理装置100aは、センサ20を用いて、ユーザの手の位置が取得可能か否かを判定する(ステップS501)。ユーザの手の位置を取得できない場合(ステップS501;No)、情報処理装置100aは、出力定義データ51Aを参照し、ユーザの手の位置を取得可能できないという状況に対応する状態である「状態#6」を、変数「現フレームの状態」に代入する(ステップS502)。
一方、ユーザの手の位置を取得できた場合(ステップS501;Yes)、情報処理装置100aは、手の位置が認識カメラの画角の端よりも内側であるか否かを判定する(ステップS503)。
手の位置が認識カメラの画角の端よりも内側でない場合(ステップS503;No)、情報処理装置100aは、出力定義データ51Aを参照し、手の位置が認識カメラの範囲外であるという状況に対応する状態である「状態#7」を、変数「現フレームの状態」に代入する(ステップS504)。
一方、手の位置が認識カメラの画角の端よりも内側である場合(ステップS503;Yes)、情報処理装置100aは、さらに、手の位置がユーザの視覚内であるか否かを判定する(ステップS505)。
手の位置がユーザの視覚内でない場合(ステップS505;No)、情報処理装置100aは、出力定義データ51Aを参照し、認識カメラ範囲内であって、ユーザの視野画角外であるという状況に対応する状態である「状態#8」を、変数「現フレームの状態」に代入する(ステップS506)。
一方、手の位置がユーザの視覚内である場合(ステップS505;Yes)、情報処理装置100aは、さらに、手の位置がディスプレイ画角に入るか否かを判定する(ステップS507)。
手の位置がディスプレイ画角に入らない場合(ステップS507;No)、情報処理装置100aは、出力定義データ51Aを参照し、手の位置がディスプレイ画角外であって、ユーザの視野範囲内であるという状況に対応する状態である「状態#9」を、変数「現フレームの状態」に代入する(ステップS508)。
一方、手の位置がディスプレイ画角に入る場合(ステップS507;Yes)、情報処理装置100aは、出力定義データ51Aを参照し、手の位置がディスプレイ画角内であるという状況に対応する状態である「状態#10」を、変数「現フレームの状態」に代入する(ステップS509)。
そして、情報処理装置100aは、「現フレームの状態」と、「前フレームの状態」とが異なるか否かを判定する。情報処理装置100aは、かかる判定の結果に応じて、音響フィードバックを行う。音響フィードバックの実行について、図18を用いて説明する。
図18は、本開示の第2の実施形態に係る処理の流れを示すフローチャート(3)である。図17のステップS510において、「現フレームの状態」と「前フレームの状態」とが異なると判定した場合(ステップS510;Yes)、情報処理装置100aは、変数「前フレームの状態」に「現フレームの状態」を代入する(ステップS601)。
なお、図17のステップS510において、「現フレームの状態」と「前フレームの状態」とが同じと判定した場合(ステップS510;No)、情報処理装置100aは、ステップS601の処理をスキップする。
そして、情報処理装置100aは、各状態に対応した音響フィードバックのリピート再生を開始する(ステップS602)。リピート再生とは、例えば、継続的な周期で効果音を出力し続けることをいう。情報処理装置100aは、上記図17及び図18の処理を、センサ20が撮像するフレーム(例えば、毎秒30回や毎秒60回)ごとに繰り返す。
(3.第3の実施形態)
[3−1.第3の実施形態に係る情報処理システムの構成]
次に、第3の実施形態について説明する。第3の実施形態に係る本開示の情報処理は、音声信号以外の信号の出力を制御する。
図19を用いて、第3の実施形態に係る情報処理システム3について説明する。図19は、本開示の第3の実施形態に係る情報処理システム3の構成例を示す図である。図19に示すように、第3の実施形態に係る情報処理システム3は、情報処理装置100b及びリストバンド80を含む。なお、第1の実施形態又は第2の実施形態と共通する構成については、説明を省略する。
リストバンド80は、ユーザの手首に装着されるウェアラブルデバイスである。リストバンド80は、情報処理装置100bからの制御信号を受信し、制御信号に応じて振動する機能を有する。すなわち、リストバンド80は、本開示に係る振動出力装置の一例である。
情報処理装置100bは、振動出力部63を有する。振動出力部63は、例えば振動モータ等により実現され、出力制御部33の制御に応じて振動する。例えば、振動出力部63は、出力制御部33から出力される振動信号に応じて、所定の周期や所定の振幅力を有する振動を発生する。すなわち、振動出力部63は、本開示に係る振動出力装置の一例である。
また、記憶部50には、例えば第1のオブジェクトと第2のオブジェクトとの距離の変化に応じた振動信号の出力の周期や大きさ(第1の実施形態で示した「第1の制御」に対応する)が記憶された定義ファイルが記憶される。また、記憶部50には、例えば第1のオブジェクトの認識状態に応じた振動信号の出力の周期や大きさの変化に関する情報(この情報に基づく制御は、第2の実施形態で示した「第2の制御」に対応する)が記憶された定義ファイルが記憶される。
そして、第3の実施形態に係る出力制御部33は、出力信号として、振動出力装置に振動を発生させるための信号を出力する。具体的には、出力制御部33は、上記の定義ファイルを参照し、振動出力部63や、リストバンド80を振動させるための振動信号を出力するよう制御する。すなわち、第3の実施形態では、音声のみならず、振動によるユーザへのフィードバックを行う。これにより、情報処理装置100bは、ユーザの視覚や聴覚によらず、触覚による知覚を可能とするので、ユーザの空間の認識性をより向上させることができる。また、情報処理装置100bによれば、例えば聴覚が不自由なユーザに対しても適切なフィードバックを行うことができるので、幅広いユーザに本開示に係る情報処理を提供することができる。
(4.第4の実施形態)
[4−1.第4の実施形態に係る情報処理システムの構成]
次に、第4の実施形態について説明する。第4の実施形態に係る本開示の情報処理は、第1のオブジェクトとして、ユーザの手以外のオブジェクトを認識する。
図20を用いて、第4の実施形態に係る情報処理システム4について説明する。図20は、本開示の第4の実施形態に係る情報処理システム4の構成例を示す図である。図20に示すように、第4の実施形態に係る情報処理システム4は、情報処理装置100及びコントローラCR01を含む。なお、第1の実施形態、第2の実施形態又は第3の実施形態と共通する構成については、説明を省略する。
コントローラCR01は、情報処理装置100と有線又は無線ネットワークで接続される情報機器である。コントローラCR01は、例えば、情報処理装置100を装着したユーザが手に持って操作する情報機器であり、ユーザの手の動きや、ユーザからコントローラCR01に入力された情報を検知する。具体的には、コントローラCR01は、内蔵されるセンサ(例えば3軸加速度センサや、ジャイロセンサや、速度センサ等の各種モーションセンサ)を制御して、コントローラCR01の三次元位置や速度等を検知する。そして、コントローラCR01は、検知した三次元位置や速度等を情報処理装置100に送信する。なお、コントローラCR01は、外部カメラ等の外部センサによって検知された自装置の三次元位置等を送信してもよい。また、コントローラCR01は、所定の通信機能に基づいて、情報処理装置100とペアリングを行っている情報や、自装置の位置情報(座標情報)等を送信してもよい。
第4の実施形態に係る情報処理装置100は、ユーザの手のみならず、ユーザが操作するコントローラCR01を第1のオブジェクトとして認識する。そして、情報処理装置100は、コントローラCR01と仮想オブジェクトとの距離の変化に基づいて第1の制御を行う。あるいは、情報処理装置100は、コントローラCR01の位置情報に基づいて第2の制御を行う。すなわち、第4の実施形態に係る取得部32は、センサ20によって検出されるユーザの手もしくはユーザが操作するコントローラHR01と、第2のオブジェクトとの間の距離の変化を取得する。
ここで、図21を用いて、第4の実施形態に係る取得処理について説明する。図21は、本開示の第4の実施形態に係る情報処理を説明するための図である。図21に示す例では、ユーザが操作するコントローラCR01と、取得部32が取得する距離Lと、仮想オブジェクトV01との関係を模式的に示す。
取得部32は、認識部31によってコントローラCR01が認識された場合、認識されたコントローラCR01に含まれる任意の座標HP02を特定する。座標HP02は、予め設定されたコントローラCR01の認識ポイントであり、例えば、何らかの信号(赤外線信号等)を発することにより、センサ20が容易に認識することのできるポイントである。
そして、取得部32は、座標HP02と、仮想オブジェクトV01に設定された任意の座標(いずれか特定の座標でもよいし、複数の座標の中心点や重心等であってもよい)との距離Lを取得する。
このように、第4の実施形態に係る情報処理装置100は、ユーザの手のみならず、ユーザが操作するコントローラCR01等の何らかのオブジェクトを認識し、認識した情報に基づいて音響フィードバックを実行してもよい。すなわち、情報処理装置100は、様々なユーザの操作態様に応じて柔軟に音響フィードバックを実行することができる。
(5.各実施形態の変形例)
上述した各実施形態に係る処理は、上記各実施形態以外にも種々の異なる形態にて実施されてよい。
上記各実施形態では、情報処理装置100(情報処理装置100a及び情報処理装置100bを含む)は、制御部30等の処理部を内蔵する例を示した。しかし、情報処理装置100は、例えば、メガネ型のインターフェイス部と、制御部30を備えた演算部と、ユーザからの入力操作等を受け付ける操作部とに分離されてもよい。また、情報処理装置100は、各実施形態で示したように、透過性を有し、ユーザの視線方向に保持される表示部61を備える場合には、いわゆるARグラスである。しかし、情報処理装置100は、外部ディスプレイである表示部61と通信を行い、表示部61に対する表示制御を行う装置であってもよい。
また、情報処理装置100は、表示部61近傍に備えられたセンサ20ではなく、他の場所に設置された外部カメラを認識カメラとして用いてもよい。例えば、AR技術では、ARゴーグルを装着したユーザの全体の動きを撮像可能なように、例えばユーザが行動する場所の天井等にカメラが設置される場合がある。このような場合、情報処理装置100は、ネットワークを介して、外部に設置されたカメラが撮像した映像を取得し、ユーザの手の位置等を認識してもよい。
また、上記各実施形態では、情報処理装置100が、ユーザの手と仮想オブジェクトとの距離に応じた状態に基づいて、出力の態様を変化する例を示したが、必ずしも状態ごとに態様を変化させなくてもよい。例えば、情報処理装置100は、ユーザの手と仮想オブジェクトとの距離Lを変数として、音量や周期や周波数等を決定するための関数に代入することにより、出力する態様を決定してもよい。
また、情報処理装置100は、必ずしも周期的な繰り返しを発生する効果音のような態様で音声信号を出力しなくてもよい。例えば、情報処理装置100は、ユーザの手がカメラに認識されている場合には、認識されていることを示す定常的な音声を一定に再生し続けてもよい。そして、情報処理装置100は、ユーザの手が仮想オブジェクトの方向に動いた場合には、ユーザの手がカメラに認識されていることを示す定常的な音声と、仮想オブジェクトとの距離の変化に応じて変化する音声と、の複数の種類の音声を出力させてもよい。
また、情報処理装置100は、距離の変化に限らず、例えば、コントローラが操作されたことや、ユーザの手が仮想オブジェクトに触れたこと等をトリガーとして、何らかの音声を出力してもよい。また、情報処理装置100は、ユーザの手を認識した場合には比較的明るい音色の音声を出力し、ユーザの手がカメラの画角から外れそうな場合には比較的暗い音色の音声を出力するようにしてもよい。これにより、情報処理装置100は、AR空間において視覚では認識できないインタラクションについても、音でのフィードバックを行うことができるため、ユーザの認識性を向上させることができる。
また、情報処理装置100は、第1のオブジェクトの動きに関する情報を出力信号でフィードバックしてもよい。例えば、情報処理装置100は、ユーザの手の動きの速度や加速度に応じて連続的に変化する音声を出力してもよい。例えば、情報処理装置100は、ユーザの手の動きの速度が大きいほど、大きな音声を出力してもよい。
上記各実施形態では、情報処理装置100が、フレームごとにユーザの状態を判定する例を示した。しかし、情報処理装置100は、必ずしも全てのフレームの状態を判定することを要せず、例えば、数枚のフレームを平滑化して、数枚のフレームごとの状態を判定してもよい。
また、情報処理装置100は、第1のオブジェクトの認識について、カメラのみならず、各種のセンシング情報を利用してもよい。例えば、第1のオブジェクトがコントローラCR01である場合、情報処理装置100は、コントローラCR01が測定した速度や加速度、あるいは、コントローラCR01が発生させる磁界に関する情報等に基づいて、コントローラCR01の位置を認識してもよい。
また、第2のオブジェクトは必ずしも仮想オブジェクトに限らず、ユーザの手が到達すべき実空間上の何らかのポイントであってもよい。例えば、第2のオブジェクトは、AR空間において表示される、ユーザの意思を示す選択ボタン(例えば、「はい」や「いいえ」が示される仮想的なボタン)等であってもよい。また、第2のオブジェクトは、ユーザが表示部61を介して視認できなくてもよい。すなわち、第2のオブジェクトは、ユーザの手が到達すべき何らかの座標情報が与えられていれば、その表示態様はどのようなものであってもよい。
また、情報処理装置100は、出力する音や振動に方向性を持たせてもよい。例えば、情報処理装置100は、ユーザの手の位置が認識できている場合、立体音響に係る技術を適用して、ユーザの手の位置から音が出力されているようにユーザに知覚されるよう、疑似的な方向性を与えてもよい。また、情報処理装置100は、メガネのフレームに相当する保持部70が振動機能を有する場合、ユーザの手に近い方の保持部70を振動させるなど、振動に関する出力に方向性を与えてもよい。
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した認識部31及び取得部32は統合されてもよい。
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
(6.ハードウェア構成)
上述してきた各実施形態に係る情報処理装置、リストバンド、コントローラ等の情報機器は、例えば図22に示すような構成のコンピュータ1000によって実現される。以下、第1の実施形態に係る情報処理装置100を例に挙げて説明する。図22は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が第1の実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、認識部31等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部50内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得する取得部と、
前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う出力制御部と、
を有する情報処理装置。
(2)
前記取得部は、
前記実空間上に重畳される仮想オブジェクトとして前記表示部に表示された前記第2のオブジェクトと、前記第1のオブジェクトの間の距離の変化を取得する
前記(1)に記載の情報処理装置。
(3)
前記取得部は、
センサによって検出された前記第1のオブジェクトと、前記仮想オブジェクトとして前記表示部に表示された前記第2のオブジェクトとの間の距離の変化を取得する
前記(2)に記載の情報処理装置。
(4)
前記出力制御部は、
前記第1のオブジェクトと前記第2のオブジェクトとの間の距離が所定閾値以下となった場合、前記第1の制御を停止する
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記出力制御部は、
前記第1の制御において、前記取得された距離の変化に応じた音を出力するよう前記振動出力装置を制御する
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記出力制御部は、
前記取得された距離の変化に基づいて、前記振動出力装置から出力される音の音量、周期もしくは周波数の少なくともいずれか一つを連続的に変化させる
前記(5)に記載の情報処理装置。
(7)
前記取得部は、
前記ユーザから見て前記表示部の画角より広い検出範囲を有するセンサを用いて、前記第1のオブジェクトの位置を示す位置情報を取得し、
前記出力制御部は、
前記取得された位置情報に基づいて、前記振動出力を変化させる第2の制御を行う
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記出力制御部は、
前記第2の制御として、前記センサの検出範囲の境界への前記第1のオブジェクトの接近に応じて前記振動出力を連続的に変化させる
前記(7)に記載の情報処理装置。
(9)
前記出力制御部は、
前記第1のオブジェクトが、前記表示部の画角外から前記センサの検出範囲の境界へ接近する場合の前記振動出力と、前記表示部の画角内から前記センサの検出範囲の境界へ接近する場合の前記振動出力とを異ならせる
前記(8)に記載の情報処理装置。
(10)
前記取得部は、
前記第2のオブジェクトの前記表示部における位置情報を取得し、
前記出力制御部は、
前記表示部の画角内から、前記表示部の画角内と画角外との境界の近傍への前記第2のオブジェクトの接近に応じて、前記振動出力を変化させる
前記(7)〜(9)のいずれかに記載の情報処理装置。
(11)
前記取得部は、
前記第1のオブジェクトが前記センサによって検出不可能な状態から、前記センサによって検出可能な状態に遷移したことを示す情報を取得し、
前記出力制御部は、
前記第1のオブジェクトが前記センサによって検出可能な状態に遷移したことを示す情報が取得された場合に、前記振動出力を変化させる
前記(7)〜(10)のいずれかに記載の情報処理装置。
(12)
前記取得部は、
センサによって検出される前記ユーザの手もしくは前記ユーザが操作するコントローラと、前記第2のオブジェクトとの間の距離の変化を取得する
前記(1)〜(11)のいずれかに記載の情報処理装置。
(13)
透過性を有し、前記ユーザの視線方向に保持される前記表示部をさらに備える
前記(1)〜(12)のいずれかに記載の情報処理装置。
(14)
コンピュータが、
実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得し、
前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う
情報処理方法。
(15)
コンピュータを、
実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得する取得部と、
前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う出力制御部と、
として機能させるための情報処理プログラムを記録した、コンピュータが読み取り可能な非一時的な記録媒体。
1、2、3、4 情報処理システム
100、100a、100b 情報処理装置
20 センサ
30 制御部
31 認識部
32 取得部
33 出力制御部
50、50A 記憶部
51、51A 出力定義データ
60 出力部
61 表示部
62 音響出力部
63 振動出力部
80 リストバンド
CR01 コントローラ

Claims (15)

  1. 実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得する取得部と、
    前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う出力制御部と、
    を備えた情報処理装置。
  2. 前記取得部は、
    前記実空間上に重畳される仮想オブジェクトとして前記表示部に表示された前記第2のオブジェクトと、前記第1のオブジェクトの間の距離の変化を取得する
    請求項1に記載の情報処理装置。
  3. 前記取得部は、
    センサによって検出された前記第1のオブジェクトと、前記仮想オブジェクトとして前記表示部に表示された前記第2のオブジェクトとの間の距離の変化を取得する
    請求項2に記載の情報処理装置。
  4. 前記出力制御部は、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の距離が所定閾値以下となった場合、前記第1の制御を停止する
    請求項1に記載の情報処理装置。
  5. 前記出力制御部は、
    前記第1の制御において、前記取得された距離の変化に応じた音を出力するよう前記振動出力装置を制御する
    請求項1に記載の情報処理装置。
  6. 前記出力制御部は、
    前記取得された距離の変化に基づいて、前記振動出力装置から出力される音の音量、周期もしくは周波数の少なくともいずれか一つを連続的に変化させる
    請求項5に記載の情報処理装置。
  7. 前記取得部は、
    前記ユーザから見て前記表示部の画角よりも広い検出範囲を有するセンサを用いて、前記第1のオブジェクトの位置を示す位置情報を取得し、
    前記出力制御部は、
    前記取得された位置情報に基づいて、前記振動出力を変化させる第2の制御を行う
    請求項1に記載の情報処理装置。
  8. 前記出力制御部は、
    前記第2の制御として、前記センサの検出範囲の境界への前記第1のオブジェクトの接近に応じて前記振動出力を連続的に変化させる
    請求項7に記載の情報処理装置。
  9. 前記出力制御部は、
    前記第1のオブジェクトが、前記表示部の画角外から前記センサの検出範囲の境界へ接近する場合の前記振動出力と、前記表示部の画角内から前記センサの検出範囲の境界へ接近する場合の前記振動出力を異ならせる
    請求項8に記載の情報処理装置。
  10. 前記取得部は、
    前記第2のオブジェクトの前記表示部における位置情報を取得し、
    前記出力制御部は、
    前記表示部の画角内から、前記表示部の画角内と画角外との境界の近傍への前記第2のオブジェクトの接近に応じて、前記振動出力を変化させる
    請求項7に記載の情報処理装置。
  11. 前記取得部は、
    前記第1のオブジェクトが前記センサによって検出不可能な状態から、前記センサによって検出可能な状態に遷移したことを示す情報を取得し、
    前記出力制御部は、
    前記第1のオブジェクトが前記センサによって検出可能な状態に遷移したことを示す情報が取得された場合に、前記振動出力を変化させる
    請求項7に記載の情報処理装置。
  12. 前記取得部は、
    センサに検出される前記ユーザの手もしくは前記ユーザが操作するコントローラと、前記第2のオブジェクトとの間の距離の変化を取得する
    請求項1に記載の情報処理装置。
  13. 透過性を有し、前記ユーザの視線方向に保持される前記表示部をさらに備える
    請求項1に記載の情報処理装置。
  14. コンピュータが、
    実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得し、
    前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う
    情報処理方法。
  15. コンピュータを、
    実空間上においてユーザによって操作される第1のオブジェクトと、表示部に表示された第2のオブジェクトとの間の距離の変化を取得する取得部と、
    前記取得された距離の変化に基づいて、振動出力装置からの振動出力を連続的に変化させる第1の制御を行う出力制御部と、
    として機能させるための情報処理プログラムを記録した、コンピュータが読み取り可能な非一時的な記録媒体。
JP2018167323A 2018-09-06 2018-09-06 情報処理装置、情報処理方法及び記録媒体 Pending JP2020042369A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018167323A JP2020042369A (ja) 2018-09-06 2018-09-06 情報処理装置、情報処理方法及び記録媒体
PCT/JP2019/034309 WO2020050186A1 (ja) 2018-09-06 2019-08-30 情報処理装置、情報処理方法及び記録媒体
US17/250,728 US20210303258A1 (en) 2018-09-06 2019-08-30 Information processing device, information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018167323A JP2020042369A (ja) 2018-09-06 2018-09-06 情報処理装置、情報処理方法及び記録媒体

Publications (1)

Publication Number Publication Date
JP2020042369A true JP2020042369A (ja) 2020-03-19

Family

ID=69721661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167323A Pending JP2020042369A (ja) 2018-09-06 2018-09-06 情報処理装置、情報処理方法及び記録媒体

Country Status (3)

Country Link
US (1) US20210303258A1 (ja)
JP (1) JP2020042369A (ja)
WO (1) WO2020050186A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199131A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置及び情報処理システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620100B2 (en) * 2019-12-27 2023-04-04 Harman International Industries, Incorporated Systems and methods for adjusting activity control parameters
CN117940878A (zh) * 2021-09-02 2024-04-26 斯纳普公司 通过分布式和连接的真实世界对象建立社交连接

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6569496B2 (ja) * 2015-11-26 2019-09-04 富士通株式会社 入力装置、入力方法、及びプログラム
EP3467620A4 (en) * 2016-05-31 2019-05-22 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199131A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置及び情報処理システム

Also Published As

Publication number Publication date
US20210303258A1 (en) 2021-09-30
WO2020050186A1 (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
KR102408318B1 (ko) 실세계 객체들의 가상 표현들
TWI597623B (zh) 可穿戴基於行爲的視覺系統
EP3029552B1 (en) Virtual reality system and method for controlling operation modes of virtual reality system
US9508008B2 (en) Wearable emotion detection and feedback system
US9495008B2 (en) Detecting a primary user of a device
US9035970B2 (en) Constraint based information inference
US9105210B2 (en) Multi-node poster location
US9696547B2 (en) Mixed reality system learned input and functions
CN112567287A (zh) 具有帧调制功能的增强现实显示
KR20160113666A (ko) 오디오 탐색 지원
WO2020050186A1 (ja) 情報処理装置、情報処理方法及び記録媒体
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
TW201535155A (zh) 藉由凝視偵測進行遠端裝置控制
JP2014504413A (ja) 理解および意図に基づく拡張現実表示用コンテンツ
CN111630477A (zh) 提供增强现实服务的设备及其操作方法
US20200322595A1 (en) Information processing device and information processing method, and recording medium
US10848891B2 (en) Remote inference of sound frequencies for determination of head-related transfer functions for a user of a headset
US20210081047A1 (en) Head-Mounted Display With Haptic Output
KR20230025697A (ko) 기하학적 위험 검출을 갖는 시각 장애인 지원 아이웨어
JP7405083B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
KR20180045644A (ko) 머리 착용형 디스플레이 장치 및 그의 제어 방법
US20220130218A1 (en) Systems and methods for characterization of mechanical impedance of biological tissues
WO2020195292A1 (ja) 感覚器オブジェクトを表示する情報処理装置