JP7231412B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP7231412B2
JP7231412B2 JP2018567385A JP2018567385A JP7231412B2 JP 7231412 B2 JP7231412 B2 JP 7231412B2 JP 2018567385 A JP2018567385 A JP 2018567385A JP 2018567385 A JP2018567385 A JP 2018567385A JP 7231412 B2 JP7231412 B2 JP 7231412B2
Authority
JP
Japan
Prior art keywords
screen
pointing position
sound
pointing
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567385A
Other languages
English (en)
Other versions
JPWO2018147143A1 (ja
Inventor
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018147143A1 publication Critical patent/JPWO2018147143A1/ja
Priority to JP2022187939A priority Critical patent/JP7523511B2/ja
Application granted granted Critical
Publication of JP7231412B2 publication Critical patent/JP7231412B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1605Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1688Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being integrated loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Description

本技術は、情報処理装置および情報処理方法に関し、特に、ユーザが画面上の所望の位置をポイントして操作を行い得る情報処理装置等に関する。
従来、例えば、特許文献1には、ユーザが画面上の所望の位置をポイントして操作を行い得る情報処理装置が提案されている。この種の情報処理装置では、視覚健常者にとっては、画面上の表示に基づいて所望の位置をポイントして操作を容易に行い得る。しかし、視覚障害者においては、画面上の所望の位置をポイントして操作を行うことは、非常に困難である。
また、例えば、特許文献2には、立体(3D)音響技術として、オブジェクト音源のオーディオデータをその位置情報に基づいて任意の位置に存在するスピーカにマッピングする3Dオーディオレンダリングの技術が記載されている。
特開2014-044268号公報 特表2014-520491号公報
本技術の目的は、視覚障害者が画面上の所望の位置をポイントして操作を行うことを容易とすることにある。
本技術の概念は、
画面に対するユーザのポインティング位置を検出する位置検出処理と、該検出されたポインティング位置に対応した音声を出力する音声出力処理を制御する制御部を備える
情報処理装置にある。
本技術において、位置検出処理により、画面に対するユーザのポインティング位置が検出される。そして、音声出力処理により、検出されたポインティング位置に対応した音声が出力される。例えば、画面は表示部に表示され、ユーザ操作部からのユーザ操作により画面上の任意の位置がポイントされる。
例えば、音声出力処理では、検出されたポインティング位置が画面上の特定領域にあるとき、このポインティング位置が特定領域であることを示す音声を出力する、ようにされてもよい。この場合、例えば、特定の領域は、画面上に配置された特定のアプリケーションを起動させるためのアプリケーションロゴの領域である、ようにされてもよい。
また、例えば、音声出力処理では、検出されたポインティング位置が画面上にないとき、このポインティング位置が画面外にあることを示す音声を出力する、ようにされてもよい。また、例えば、音声出力処理では、検出されたポインティング位置が画面上の第1の特定領域内に存在する第2の特定領域にあるとき、このポインティング位置が第1の特定領域であることを示す音声を出力すると同時に、このポインティング位置が第2の特定領域であることを示す音声を出力する、ようにされてもよい。
また、例えば、音声出力処理では、検出されたポインティング位置に対応した位置を音像位置とする処理をする、ようにされてもよい。これにより、ポインティング位置が画面上のどの辺りにあるのかを音声が聞こえる方向から把握可能となる。この場合、例えば、音声出力処理では、検出されたポインティング位置に対応した位置を音像位置とするために、このポインティング位置に対応したオブジェクトメタデータに応じたレンダリング処理をする、ようにされてもよい。
この場合、例えば、音声出力処理では、画面上の位置に関連して予め用意されているオブジェクトメタデータに応じたレンダリング処理をする、ようにされてもよい。また、この場合、例えば、音声出力処理では、検出されたポインティング位置から求められたオブジェクトメタデータに応じたレンダリング処理をする、ようにされてもよい。
このように本技術においては、ポインティング位置に対応した音声を出力するものである。そのため、視覚障害者が画面上の所望の位置をポイントして操作を行うことが容易となる。
本技術によれば、視覚障害者が画面上の所望の位置をポイントして操作を行うことを容易とできる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての情報処理装置の構成例を示すブロック図である。 画面構成の一例を示す図である。 ポインティング位置P(x,y)が背景の領域にある場合を説明するための図である。 表示インタラクティブ処理部でポインティング位置P(x,y)の情報から算出する位置情報(θ,φ,r)の各要素を模式的に示す図である。 オブジェクトレンダラにおけるレンダリング処理の概要を示す図である。 ポインティング位置P(x,y)がアプリケーションロゴの領域にある場合を説明するための図である。 アプリケーションロゴの矩形領域のオブジェクト・ポジションの奥行方向の位置関係を説明するための図である。 ロゴ・リージョンの中に選択し得るボタンが存在する場合を説明するための図である。 ポインティング位置P(x,y)が画面外にある場合を説明するための図である
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[情報処理装置の構成例]
図1は、実施の形態としての情報処理装置100の構成例を示している。この情報処理装置100は、例えば、インターネット等のネット上にあるサーバにアクセスして所望の情報を取得してユーザに提示するものである。
情報処理装置100は、CPU(Central Processing Unit)101と、ユーザ操作部102を有している。また、情報処理装置100は、通信インタフェース111と、画像処理部112と、OSD(On Screen Display)部113と、パネル駆動部114と、表示パネル115を有している。また、情報処理処置100は、オブジェクトレンダラ121と、表示インタラクティブ処理部122と、ミキサ123と、音声出力処理部124と、スピーカシステム125を有している。
CPU101は、情報処理装置100の各部の動作を制御する。ユーザ操作部102は、ユーザが種々の操作を行うためのユーザインタフェースであり、CPU101に接続されている。このユーザ操作部102は、キーボード、タッチパネルなどの他に、画面上の任意の位置をポイントして操作を行うためのポインティングデバイス、例えばマウスなども含んでいる。
通信インタフェース111は、インターネット等のネット上にあるサーバにアクセスして、情報提示のための画像データVDや音声データADを取得する。なお、図示は省略しているが、通信インタフェース111はデコード機能も備えるものであり、通信により取得された画像や音声の符号化データのデコードもここで行われている。また、通信インタフェース111は、表示画像に関連付けされたアプリケーションの情報、さらにはユーザ操作によるポインティング位置に対応した音声を出力するための情報なども取得し、CPU101に送る。アプリケーションの情報には、このアプリケーションを起動させるためのアプリケーションロゴ(ショートカット)を画面上のどの位置に配置するかを示す表示位置情報も含まれる。
画像処理部112は、通信インタフェース111で取得された画像データVDに対してスケーリング処理、画質調整処理などを行って表示用画像データを得る。OSD部113は、CPU101の制御のもと、GUI(Graphical User Interface)表示信号を発生する。このGUI表示信号には、アプリケーションを起動させるためのアプリケーションロゴ(ショートカット)を表示するための表示信号、ポインティング位置を示す矢印を表示するための表示信号等が含まれる。このGUI表示信号は、画像処理部112に送られ、画像データに重畳される。
パネル駆動回路114は、画像処理部114で得られる表示用画像データに基づいて、表示パネル115を駆動する。表示パネル115は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
ミキサ123は、通信インタフェース111で取得された音声データ(音声チャネルデータ)ADや、情報処理装置100内部で発生した音声データと、オブジェクトレンダラ121で得られたポインティング位置に対応した音声を出力するための音声チャネルデータを合成する。音声出力処理部124は、ミキサ123で得られた音声チャネルデータに対してD/A変換や増幅等の必要な処理を行ってスピーカシステム125に供給する。スピーカシステム125は、複数チャネル、この実施の形態では画面のトップレフト(TL)、ボトムレフト(BL)、トップライト(TR)、ボトムライト(BR)のそれぞれの位置に配置される4チャネルのスピーカを備える。
通信インタフェース111は、上述したように、ユーザ操作によるポインティング位置に対応した音声を出力するための情報を取得してCPU101に送る。この情報には、画面に対するユーザのポインティング位置に応じた音声出力のための音声データが含まれる。
このユーザのポインティング位置に応じた音声出力のための音声データとして、ポインティング位置が画面上に配置されたアプリケーションロゴ(ショートカット)の矩形領域(ロゴ・リージョン)にある場合に使用する音声データSA2が含まれる。この音声データSA2は、画面上に配置されたアプリケーションロゴの種類分だけ存在する。この音声データSA2には、アプリケーションロゴ(ショートカット)の画面上の配置位置に対応した位置を音像位置、つまりオブジェクト・ポジション(object position)とする音声チャネルデータを得るためのレンダリング処理で用いられるオブジェクトメタデータが付随している。
また、ユーザのポインティング位置に応じた音声出力のための音声データとして、ポインティング位置が画面上であるがアプリケーションロゴの矩形領域でない背景領域にある場合に使用する音声データSA1が含まれる。さらに、ユーザのポインティング位置に応じた音声出力のための音声データとして、ポインティング位置が画面外にある場合の音声データSA3が含まれる。なお、この音声データSA3は、1種類だけではなく、例えばはみ出した方向に応じた複数種類、例えば上下左右の4種類が存在する。
図2は、画面構成の一例を示している。図示の例において、黒の太い実線の矩形枠は表示パネル115の画面枠を示している。この画面枠の背面側には、4分割されたそれぞれの位置に対応した音声出力モジュール(スピーカ)が配されている。この音声出力モジュールは、表示パネル115自体で構成され、画面と一体となっているものも含まれる。
画面上には、背景上に丸1~丸5を付して示している特定のアプリケーションを起動させるためのアプリケーションロゴの矩形領域が存在する。この矩形領域内にはアプリケーションロゴ(ショートカットなど)が表示されている(図2においてロゴ表示は省略している)。
白抜きの矢印は、例えばマウスカーソルであって、ユーザ操作によるポインティング位置を示している。ポインティング位置がアプリケーションロゴの矩形領域内にあるとき、その矩形領域はハイライト状態となる。図示の例では、ポインティング位置が丸1の矩形領域内にあるので、その矩形領域がハイライト状態となっている。
また、図示の例において、「Top-Bottom」と「Left-Right」の一点鎖線の交点がセンター位置(O)で基準点となっており、この基準点に対して上下左右のオフセットにより、ポインティング位置が現在どこにあるかということがわかるようになっている。このポインティング位置はユーザ操作部102からのユーザ操作により移動するものであり、CPU101は、ポインティング位置を常に把握している。センター位置(O)はポインティング位置検出の際に画面との位置関係を決定する際の基準として設けるもので、表示インタラクティブ処理部122で、位置の検出結果をオブジェクト位置情報(θ,φ,r)に変換する際に、視聴者の位置からみたポインティング位置の情報を音場再生するベクトルの位置座標とする。
「1.ポインティング位置P(x,y)が背景の領域にある場合」
図3(a)は、ポインティング位置P(x,y)が背景の領域にある状態を示している。CPU101は、上述したようにポインティング位置P(x,y)を常に把握している。また、CPU101は、各アプリケーションロゴの表示信号の発生を制御していることから、画面上における各アプリケーションロゴの矩形領域も把握している。この場合、CPU101は、ポインティング位置P(x,y)が各アプリケーションロゴの矩形領域にはなく、背景領域にあることを認識する。
この場合、CPU101は、ポインティング位置P(x,y)が画面上であるがアプリケーションロゴの領域でない背景領域にあることを示すための音声出力を行うために、上述の音声データSA1を用いることを決定し、オブジェクトレンダラ121に、音声データSA1(BG sound)を送る(図3(b)参照)。また、この場合、CPU101は、ポインティング位置P(x,y)を、音像位置、つまりオブジェクト・ポジション(object position)とすることに決定する。この例では、オブジェクト・ポジションは、画面上の右上(High & Right)の位置となる(図3(b)参照)。
この場合、CPU101は、表示インタラクティブ処理部122に、ポインティング位置P(x,y)の情報を送る。表示インタラクティブ処理部122は、このポインティング位置P(x,y)の情報に基づいて、オブジェクトメタデータを構成する位置情報(θ,φ,r)を求める。ここで、θはアジマス(Azimuth)であり、φはエレベーション(Elevation)であり、rはラジアス(Radius)である。
図4は、表示インタラクティブ処理部122でポインティング位置P(x,y)の情報から算出する位置情報(θ,φ,r)の各要素を模式的に示している。rは、視聴位置からの距離を示すもので、センサーなどの実測値を適用することも可能である。あるいは、実測値の代わりに、図示のように、標準視聴距離とされるものを代用して、それにθから導き出されるアングルを考慮した距離としてもよい。ここで、標準視聴距離は、モニタ(表示パネル)の縦方向の大きさの約3倍、UHD(4K)解像度では約1.5倍といわれている。
オブジェクトレンダラ121は、音声データSA1(BG sound)に対して、表示インタラクティブ処理部122で算出されたオブジェクトメタデータを用いたレンダリング処理を行って、ポインティング位置P(x,y)に対応した位置をオブジェクト・ポジションとするための音声チャネルデータを生成する。
図5は、オブジェクトレンダラ121におけるレンダリング処理の概要を示している。このレンダリング処理では、3つのスピーカで構成される三角形領域(TL-BL-BR)と(TR-BL-BR)の各々において、オブジェクトデータを構成する位置情報(θ,φ,r)を利用して三角形領域を合成して仮想音像P(x,y)の位置を定めるようにする。
P(x,y)の位置は、図示のようにr,φ,θで表現されるもので、点Qから各スピーカ位置へ伸ばした軸Q-TL,Q-BL,Q-TR,Q-BR上のベクトルr_TL,r_BL,r_TR,r-BRに射影する。この場合、三角領域TL-BL-BRにおいて、P(x,y)の位置は(r_TL,r_BL,r_BR) に射影される。この3つのベクトルのベクトル量に相当する音圧を各スピーカへのチャンネルデータにあてる。
一方、三角領域TR-BL-BRにおいて、P(x,y)の位置は(r_TR,r_BL,r_BR) に射影される。この3つのベクトルのベクトル量に相当する音圧を各スピーカへのチャンネルデータにあてる。2つの三角領域の間で、個々のベクトルごとに射影されたベクトル量を合成することで4つのスピーカから出力される合成された音声出力が得られる。
オブジェクトレンダラ121は、上述のレンダリング処理で得られた音声チャネルデータをミキサ123に送る。これにより、スピーカシステム125からはポインティング位置P(x,y)が背景領域にあることを示す音声出力がなされる。そのため、ユーザは、ポインティング位置P(x,y)が背景領域にあることを音声で知ることができる。
また、その音像位置、つまりオブジェクト・ポジションは、ポインティング位置P(x,y)に対応した位置となる。図3の例では、オブジェクト・ポジションは画面上の右上(High & Right)の位置となる。そのため、ユーザは音声が聞こえる方向でもってポインティング位置の画面上におけるおおよその位置を知ることが可能となる。
「2.ポインティング位置P(x,y)がアプリケーションロゴの領域にある場合」
図6(a)は、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にある状態を示している。CPU101は、上述したようにポインティング位置P(x,y)を常に把握している。また、CPU101は、各アプリケーションロゴの表示信号の発生を制御していることから、画面上における各アプリケーションロゴの矩形領域も把握している。この場合、CPU101は、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを認識する。
この場合、CPU101は、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを示すための音声出力を行うために、上述の音声データSA2を用いることを決定し、オブジェクトレンダラ121に、音声データSA2(丸1 sound)を送る(図6(b)参照)。
また、CPU101は、ポインティング位置P(x,y)に対応した位置を、音声出力位置、つまりオブジェクト・ポジション(object position)とすることを決定する。この例では、オブジェクト・ポジションは、画面上の右下(Low & Right)の位置とされる(図6(b)参照)。この場合、CPU101は、音声データSA2(丸1 sound)に付随しているオブジェクトメタデータをオブジェクトレンダラ121に送る。このオブジェクトメタデータは、オブジェクト・ポジションが画面上の右下(Low & Right)の位置となるように設定されている。
因みに、音声データSA2(丸2 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の中央(Center)の位置となるように設定されている。また、音声データSA2(丸3 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の左上(High & Left)の位置となるように設定されている。
また、音声データSA2(丸4 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の左中央(Center & Left)の位置となるように設定されている。さらに、音声データSA2(丸5 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の左下(Low & Left)の位置となるように設定されている。
なお、この場合、オブジェクトメタデータのrの値を制御することで、空間的にオーバーラップするアプリケーションロゴの矩形領域のオブジェクト・ポジションの奥行方向の位置関係を表現することが可能となる。
図7を用いて、丸1のアプリケーションロゴの矩形領域が丸2のアプリケーションロゴの矩形領域より手前に配置される場合を考える。この場合、(ベクトルr(丸1)の大きさ)<(ベクトルr(丸2)の大きさ)の関係を満たすようにする。このようにオブジェクトメタデータのrの値を設定することで、ポインティング位置がP1(x,y)で丸1のアプリケーションロゴの矩形領域にあるときと、ポインティング位置がP2(x,y)で丸2のアプリケーションロゴの矩形領域にあるときとで、丸1のアプリケーションロゴの矩形領域が丸2のアプリケーションロゴの矩形領域より手前にあることを音声で検知できるようになる。
ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあるとき、オブジェクトレンダラ121は、音声データSA2(丸1 sound)に対して、それに付随しているオブジェクトメタデータを用いたレンダリング処理を行って、ポインティング位置P(x,y)が存在する丸1のアプリケーションロゴの矩形領域に対応した位置をオブジェクト・ポジションとするための音声チャネルデータを生成する。このオブジェクトレンダラ121におけるレンダリング処理の説明については上述の図5を用いた説明と同様であるので、ここでは省略する。
オブジェクトレンダラ121は、レンダリング処理で得られた音声チャネルデータをミキサ123に送る。これにより、スピーカシステム125からはポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを示す音声出力がなされる。そのため、ユーザは、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを音声で知ることができる。
また、その音像位置、つまりオブジェクト・ポジションは、丸1のアプリケーションロゴの矩形領域に対応した位置となる。図6の例では、オブジェクト・ポジションは画面上の右下(Low & Right)の位置となる。そのため、ユーザは音声の聞こえる方向でもって丸1のアプリケーションロゴの矩形領域の画面上におけるおおよその位置を知ることが可能となる。
なお、上述では、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にある状態を説明した。詳細説明は省略するが、ポインティング位置P(x,y)がその他のアプリケーションロゴの領域にある状態においても同様である。また、上述では、レンダリング処理に用いるオブジェクトメタデータとして音声データに付随しているものを用いる例を示したが、ポインティング位置P(x,y)から表示インタラクティブ処理部122で計算したものを用いることも可能である。
また、上述では、アプリケーションロゴの矩形領域(ロゴ・リージョン)に選択し得るボタンが存在しない例を説明した。しかし、図8(a),(b)に示すように、ロゴ・リージョン1の中に選択し得るボタンが存在する場合もある。この場合、ポインティング位置P(x,y)が、ロゴ・リージョン1内の所定のボタンの領域にある状態では、上述したようにポインティング位置P(x,y)がロゴ・リージョン1にあることを示す音声を出力し、同時に、ポインティング位置P(x,y)がこの所定のボタンの領域にあることを示す音声を出力するようにされる。
図示の例の場合、通信インタフェース111(図1参照)は、ロゴ・リージョン1に関連した音声出力情報を取得する。この音声出力情報には、ポインティング位置がロゴ・リージョン1にあることを示す音声出力のための音声データと、これに付随したオブジェクトメタデータが含まれる他に、ボタン毎に、ポインティング位置がそのボタン領域にあることを示す音声出力のための音声データと、これに付随したオブジェクトメタデータが含まれる。
例えば、ロゴ・リージョン1の音声データに付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の右下(Low & Right)の位置となるように設定されている。また、「シーンA」、「シーンB」、「シーンC」、「シーンD」のボタン領域の音声データに付随しているオブジェクトメタデータは、それぞれ、オブジェクト・ポジションが画面上の左上(High & Left)、右上(High & Right)、左下(Low & Left)、右下(Low & Right)の位置となるように設定されている。
図示のように、ポインティング位置P(x,y)が「シーンA」のボタン領域にある状態では、CPU101は、オブジェクトレンダラ121(図1参照)に、ロゴ・リージョン1の音声データと、それに付随したオブジェクトメタデータを送ると共に、「シーンA」のボタン領域の音声データと、それに付随したオブジェクトメタデータを送る。
オブジェクトレンダラ121は、音声データに対してオジェクトメタデータを用いたレンダリング処理を行って、ロゴ・リージョン1に対応した位置、ここでは画面上の右下(Low & Right)の位置をオブジェクト・ポジションとするための音声チャネルデータを生成して、ミキサ123(図1参照)に送る。
これにより、スピーカシステム125からは、ロゴ・リージョン1にあることを示す音声、例えば「ロゴ・リージョン1です」の音声が出力される。この場合、その音像位置、つまりオブジェクト・ポジションは、図8(a)に示すように、画面上の右下(Low & Right)の位置となる。
また、図示のように、ポインティング位置P(x,y)が「シーンA」のボタン領域にある状態では、CPU101は、オブジェクトレンダラ121(図1参照)に、「シーンA」のボタン領域の音声データと、それに付随したオブジェクトメタデータを送る。
オブジェクトレンダラ121は、音声データに対してオジェクトメタデータを用いたレンダリング処理を行って、「シーンA」のボタン領域に対応した位置、ここでは画面上の左上(High & Left)の位置をオブジェクト・ポジションとするための音声チャネルデータを生成して、上述のロゴ・リージョン1の音声チャネルデータに合成してミキサ123(図1参照)に送る。
これにより、スピーカシステム125からは、上述のロゴ・リージョン1にあることを示す音声と同時に、「シーンA」のボタン領域にあることを示す音声、例えば「ロゴ・リージョン1内のシーンAです。右や下に他のボタンが選択できます」の音声が出力される。この場合、その音像位置、つまりオブジェクト・ポジションは、図8(a)に示すように、ボタン同士の相対位置関係が把握できるよう、画面上の左上(High & Left)の位置となる。
なお、詳細説明は省略するが、ポインティング位置P(x,y)が他のボタン領域にある状態においても同様の処理がなされ、ロゴ・リージョン1にあることを示す音声と、そのボタン領域にあることを示す音声がそれぞれ設定されたオブジェクト・ポジションで同時に出力される。
「3.ポインティング位置P(x,y)が画面外にある場合」
図9は、ポインティング位置P(x,y)が画面外、この例では画面の右側にある状態を示している。CPU101は、上述したようにポインティング位置P(x,y)を常に把握している。この場合、CPU101は、ポインティング位置P(x,y)が画面の右側にはみ出していることを認識する。
この場合、CPU101は、ポインティング位置P(x,y)が面の右側にはみ出していることを示すための音声出力を行うために、上述の音声データSA3を用いることを決定し、オブジェクトレンダラ121に、その音声データSA3(OUT sound)を送る。また、この場合、CPU101は、ポインティング位置P(x,y)を、音像位置、つまりオブジェクト・ポジション(object position)とすることに決定する。この例では、オブジェクト・ポジションは、画面に対して右上にはみ出した位置となる。
この場合、CPU101は、表示インタラクティブ処理部122に、ポインティング位置P(x,y)の情報を送る。表示インタラクティブ処理部122は、このポインティング位置P(x,y)の情報に基づいて、オブジェクトメタデータを構成する位置情報(θ,φ,r)を求める。この位置情報(θ,φ,r)の詳細説明については上述の図4を用いた説明と同様であるので、ここでは省略する。
オブジェクトレンダラ121は、音声データSA3(OUT sound)に対して、表示インタラクティブ処理部122で算出されたオブジェクトメタデータを用いたレンダリング処理を行って、ポインティング位置P(x,y)に対応した位置をオブジェクト・ポジションとするための音声チャネルデータを生成する。このオブジェクトレンダラ121におけるレンダリング処理の説明については上述の図5を用いた説明と同様であるので、ここでは省略する。
オブジェクトレンダラ121は、レンダリング処理で得られた音声チャネルデータをミキサ123に送る。これにより、スピーカシステム125からはポインティング位置P(x,y)が画面外にあること、ここでは右側にはみ出していることを示す音声、例えば「画面の右にはみ出ました」の音声が出力される。そのため、ユーザは、ポインティング位置P(x,y)が画面の右側はみ出していることを音声で知ることができる。
また、その音像位置、つまりオブジェクト・ポジションは、ポインティング位置P(x,y)に対応した位置となる。図9の例では、オブジェクト・ポジションは画面に対して右上にはみ出した位置となる。そのため、ユーザは音声が聞こえる方向でもってポインティング位置の画面に対するおおよその位置を知ることが可能となる。
上述したように、図1に示す情報処理装置100においては、ポインティング位置P(x,y)が背景、アプリケーションロゴの矩形領域、画面外などの位置にある場合、その位置に対応した音声を出力する。そのため、視覚障害者は、この音声出力による支援を受けて、画面上の所望の位置をポイントして操作を行うことが容易となる。
また、図1に示す情報処理装置100においては、ポインティング位置P(x,y)に対応した音声を出力する際の音像位置(オブジェクト・ポジション)を、そのポインティング位置P(x,y)に対応した位置とするものである。そのため、ポインティング位置が画面上のどの辺りにあるのか音声が聞こえる方向から把握可能となる。
<2.変形例>
なお、上述実施の形態においては、画面上に特定のアプリケーションを起動させるためのアプリケーションロゴ(ショートカット)の矩形領域が配置された例を示した。画面上に配置される領域はこれに限定されるものではなく、ユーザがポインティングして操作をし得るその他の領域であってもよい。例えば、コンテンツを再生する装置において、再生コンテンツを選択するためのロゴ領域などであってもよい。
また、本技術は、以下のような構成を取ることもできる。
(1)画面に対するユーザのポインティング位置を検出する位置検出処理と、該検出されたポインティング位置に対応した音声を出力する音声出力処理を制御する制御部を備える
情報処理装置。
(2)上記音声出力処理では、
上記検出されたポインティング位置が画面上の特定領域にあるとき、該ポインティング位置が上記特定領域であることを示す音声を出力する
前記(1)に記載の情報処理装置。
(3)上記特定の領域は、上記画面上に配置された特定のアプリケーションを起動させるためのアプリケーションロゴの領域である
前記(2)に記載の情報処理装置。
(4)上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、該ポインティング位置が画面外にあることを示す音声を出力する
前記(1)から(3)のいずれかに記載の情報処理装置。
(5)上記音声出力処理では、
上記検出されたポインティング位置が画面上の第1の特定領域内に存在する第2の特定領域にあるとき、該ポインティング位置が上記第1の特定領域であることを示す音声を出力すると同時に、該ポインティング位置が上記第2の特定領域であることを示す音声を出力する
前記(1)に記載の情報処理装置。
(6)上記音声出力処理では、
上記検出されたポインティング位置に対応した位置を音像位置とする処理をする
前記(1)から(5)のいずれかに記載の情報処理装置。
(7)上記音声出力処理では、
上記検出されたポインティング位置に対応した位置を音像位置とするために、該ポインティング位置に対応したオブジェクトメタデータに応じたレンダリング処理をする
前記(6)に記載の情報処理装置。
(8)上記音声出力処理では、
画面上の位置に関連して予め用意されているオブジェクトメタデータに応じたレンダリング処理をする
前記(7)に記載の情報処理装置。
(9)上記音声出力処理では、
上記検出されたポインティング位置から求められたオブジェクトメタデータに応じたレンダリング処理をする
前記(7)に記載の情報処理装置。
(10)画面に対するユーザのポインティング位置を検出する位置検出ステップと、
上記検出されたポインティング位置に対応した音声を出力する音声出力ステップを有する
情報処理方法。
(11)画面を表示する表示部と、
上記画面上の任意の位置をユーザがポイントするユーザ操作部と、
上記画面に対するユーザのポインティング位置を検出する位置検出部と、
上記検出されたポインティング位置に対応した音声を出力する音声出力部を備える
情報処理装置。
本技術の主な特徴は、ポインティング位置に対応した音声を出力することで、視覚障害者が画面上の所望の位置をポイントして操作をすることを容易としたことである(図1、図3、図4、図9参照)。また、本技術の主な特徴は、ポインティング位置に対応した音声を出力する際の音像位置を、そのポインティング位置に対応した位置とする処理をすることで、ポインティング位置が画面上のどの辺りにあるのか音声が聞こえる方向から把握可能としたことである(図1、図3、図4、図9参照。
100・・・情報処理装置
101・・・CPU
102・・・ユーザ操作部
111・・・通信インタフェース
112・・・画像処理部
113・・・OSD部
114・・・パネル駆動部
115・・・表示パネル
121・・・オブジェクトレンダラ
122・・・表示インタラクティブ処理部
123・・・ミキサ
124・・・音声出力処理部
125・・・スピーカシステム

Claims (9)

  1. 画面に対するユーザのポインティング位置を検出する位置検出処理と、該検出されたポインティング位置に対応した音声を出力する音声出力処理を制御する制御部を備え、
    上記音声出力処理では、
    上記検出されたポインティング位置が画面上の第1の特定領域に存在する第2の特定領域にある場合、ポインティング位置が上記第2の特定領域にあることを示す音声を、ポインティング位置が上記第1の特定領域にあることおよび上記第1の特定領域に存在し、上記第2の特定領域とは別に選択し得る第3の特定領域の位置を示す音声と同時に、出力する
    情報処理装置。
  2. 上記第1の特定の領域は、上記画面上に配置された、特定のアプリケーションを起動させるためのアプリケーションロゴの領域である
    請求項1に記載の情報処理装置。
  3. 上記音声出力処理では、
    上記検出されたポインティング位置が画面上にないとき、ポインティング位置が画面外にあることを示す音声を出力する
    請求項1に記載の情報処理装置。
  4. 上記音声出力処理では、
    上記検出されたポインティング位置に対応した位置を音像位置とする処理をする
    請求項1に記載の情報処理装置。
  5. 上記音声出力処理では、
    上記検出されたポインティング位置に対応した位置を音像位置とするために、該ポインティング位置に対応したオブジェクトメタデータに応じたレンダリング処理をする
    請求項4に記載の情報処理装置。
  6. 上記音声出力処理では、
    画面上の位置に関連して予め用意されているオブジェクトメタデータに応じたレンダリング処理をする
    請求項5に記載の情報処理装置。
  7. 上記音声出力処理では、
    上記検出されたポインティング位置から求められたオブジェクトメタデータに応じたレンダリング処理をする
    請求項5に記載の情報処理装置。
  8. 画面に対するユーザのポインティング位置を検出する位置検出ステップと、
    上記検出されたポインティング位置に対応した音声を出力する音声出力ステップを有し、
    上記音声出力ステップでは、
    上記検出されたポインティング位置が画面上の第1の特定領域に存在する第2の特定領域にある場合、ポインティング位置が上記第2の特定領域にあることを示す音声を、ポインティング位置が上記第1の特定領域にあることおよび上記第1の特定領域に存在し、上記第2の特定領域とは別に選択し得る第3の特定領域の位置を示す音声と同時に、出力する
    情報処理方法。
  9. 画面を表示する表示部と、
    上記画面上の任意の位置をユーザがポイントするユーザ操作部と、
    上記画面に対するユーザのポインティング位置を検出する位置検出部と、
    上記検出されたポインティング位置に対応した音声を出力する音声出力部を備え、
    上記音声出力部は、
    上記検出されたポインティング位置が画面上の第1の特定領域に存在する第2の特定領域にある場合、ポインティング位置が上記第2の特定領域にあることを示す音声を、ポインティング位置が上記第1の特定領域にあることおよび上記第1の特定領域に存在し、上記第2の特定領域とは別に選択し得る第3の特定領域の位置を示す音声と同時に、出力する
    情報処理装置。
JP2018567385A 2017-02-09 2018-01-31 情報処理装置および情報処理方法 Active JP7231412B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022187939A JP7523511B2 (ja) 2017-02-09 2022-11-25 情報処理装置および情報処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017022643 2017-02-09
JP2017022643 2017-02-09
PCT/JP2018/003219 WO2018147143A1 (ja) 2017-02-09 2018-01-31 情報処理装置および情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022187939A Division JP7523511B2 (ja) 2017-02-09 2022-11-25 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2018147143A1 JPWO2018147143A1 (ja) 2019-11-21
JP7231412B2 true JP7231412B2 (ja) 2023-03-01

Family

ID=63108341

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018567385A Active JP7231412B2 (ja) 2017-02-09 2018-01-31 情報処理装置および情報処理方法
JP2022187939A Active JP7523511B2 (ja) 2017-02-09 2022-11-25 情報処理装置および情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022187939A Active JP7523511B2 (ja) 2017-02-09 2022-11-25 情報処理装置および情報処理方法

Country Status (5)

Country Link
US (1) US10809870B2 (ja)
EP (1) EP3582093A1 (ja)
JP (2) JP7231412B2 (ja)
CN (1) CN110249297B (ja)
WO (1) WO2018147143A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3713255A4 (en) * 2017-11-14 2021-01-20 Sony Corporation SIGNAL PROCESSING DEVICE AND METHOD AND PROGRAM
MX2021013614A (es) * 2019-05-08 2021-12-10 Meyer Sound Laboratories Incorporated Sistema y metodo para proveer sonido de ancho de banda completo a una audiencia en un espacio de audiencia.

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004271748A (ja) 2003-03-06 2004-09-30 Nec Corp タッチパネル装置
JP2007052385A (ja) 2005-08-15 2007-03-01 Kohei Katagiri オーディオ・ユーザー・インターフェース
JP2007086856A (ja) 2005-09-20 2007-04-05 Fuji Xerox Co Ltd ユーザインタフェース装置
JP2010074238A (ja) 2008-09-16 2010-04-02 Canon Inc 受信装置及びその制御方法
JP2016053767A (ja) 2014-09-02 2016-04-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5777614A (en) * 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
US6404442B1 (en) * 1999-03-25 2002-06-11 International Business Machines Corporation Image finding enablement with projected audio
JP2001306254A (ja) * 2000-02-17 2001-11-02 Seiko Epson Corp 打音検出による入力機能
JP2003067119A (ja) * 2001-08-24 2003-03-07 Ricoh Co Ltd 機器操作装置、プログラムおよび記録媒体
JP4926091B2 (ja) 2008-02-19 2012-05-09 株式会社日立製作所 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム
CN103339585B (zh) * 2011-02-08 2017-05-31 夏普株式会社 输入装置
JP5945100B2 (ja) * 2011-06-03 2016-07-05 任天堂株式会社 入力処理プログラム、入力処理装置、入力処理方法および入力処理システム
TWI816597B (zh) 2011-07-01 2023-09-21 美商杜比實驗室特許公司 用於增強3d音頻編輯與呈現之設備、方法及非暫態媒體
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013183110A1 (ja) * 2012-06-04 2013-12-12 株式会社Pfu 情報処理装置、方法およびプログラム
JP6102124B2 (ja) 2012-08-24 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9645678B2 (en) * 2012-12-18 2017-05-09 Seiko Epson Corporation Display device, and method of controlling display device
KR102104910B1 (ko) * 2013-02-28 2020-04-27 삼성전자주식회사 입력 유닛에 촉각 피드백을 제공하는 휴대 장치 및 그 방법
KR20160102179A (ko) 2013-12-27 2016-08-29 소니 주식회사 표시 제어 장치, 표시 제어 방법 및 프로그램
CN105589594B (zh) * 2014-11-06 2019-12-31 天马微电子股份有限公司 电子装置和电子装置的操作控制方法
WO2016103522A1 (ja) * 2014-12-26 2016-06-30 株式会社ニコン 制御装置、電子機器、制御方法およびプログラム
US20180011612A1 (en) * 2015-01-20 2018-01-11 Gürkan Öztürk A method for layout and selection of the menu elements in man-machine interface
WO2016200669A1 (en) * 2015-06-07 2016-12-15 Apple Inc. Device, method, and graphical user interface for manipulating related application windows
KR20160144817A (ko) 2015-06-09 2016-12-19 삼성전자주식회사 디스플레이 장치, 포인팅 장치, 포인팅 시스템 및 그 제어 방법
US10004984B2 (en) * 2016-10-31 2018-06-26 Disney Enterprises, Inc. Interactive in-room show and game system
US11609300B2 (en) * 2017-03-17 2023-03-21 SIRL, Inc. Precise positioning system enabled product location method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004271748A (ja) 2003-03-06 2004-09-30 Nec Corp タッチパネル装置
JP2007052385A (ja) 2005-08-15 2007-03-01 Kohei Katagiri オーディオ・ユーザー・インターフェース
JP2007086856A (ja) 2005-09-20 2007-04-05 Fuji Xerox Co Ltd ユーザインタフェース装置
JP2010074238A (ja) 2008-09-16 2010-04-02 Canon Inc 受信装置及びその制御方法
JP2016053767A (ja) 2014-09-02 2016-04-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
EP3582093A4 (en) 2019-12-18
JPWO2018147143A1 (ja) 2019-11-21
JP7523511B2 (ja) 2024-07-26
US10809870B2 (en) 2020-10-20
CN110249297A (zh) 2019-09-17
US20190369814A1 (en) 2019-12-05
WO2018147143A1 (ja) 2018-08-16
CN110249297B (zh) 2023-07-21
EP3582093A1 (en) 2019-12-18
JP2023024471A (ja) 2023-02-16

Similar Documents

Publication Publication Date Title
JP7275227B2 (ja) 複合現実デバイスにおける仮想および実オブジェクトの記録
JP2023024471A (ja) 情報処理装置および情報処理方法
KR20210087921A (ko) 공간-의존 콘텐츠를 위한 햅틱 효과 생성
CN103941851B (zh) 一种实现虚拟触摸校准的方法以及系统
US11779836B2 (en) Vibration control apparatus
KR101691034B1 (ko) 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법
US20200209952A1 (en) An Apparatus and Associated Methods for Presenting Sensory Scenes
KR102548644B1 (ko) 신호 처리 장치 및 방법, 그리고 프로그램
WO2015194075A1 (ja) 画像処理装置、画像処理方法及びプログラム
KR20150001425A (ko) 헤드 마운트 디스플레이 장치 및 그 동작방법
US20200111257A1 (en) Sound reproduction apparatus for reproducing virtual speaker based on image information
KR101875669B1 (ko) 외부 장치를 이용한 방송 데이터 처리 방법 및 장치
EP3418860A1 (en) Provision of virtual reality content
JP5818322B2 (ja) 映像生成装置、映像生成方法及びコンピュータプログラム
JP6326743B2 (ja) 情報処理装置、avレシーバ、およびプログラム
KR101177793B1 (ko) 입체영상 체험 장치 및 방법
JP6751777B2 (ja) コンピュータプログラム、表示装置、頭部装着型表示装置
JP6484914B2 (ja) 情報処理機器および操作システム
JP7457893B2 (ja) 制御装置、制御装置の処理方法、および、プログラム
JP2012216928A (ja) 投影システム、投影装置、投影方法及びプログラム
WO2022209317A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
US20240089688A1 (en) Processing of audio data
US20230260221A1 (en) Mixed reality environment display using surface reconstruction mesh and live video overlay
JP5448611B2 (ja) 表示制御装置及び制御方法
US20140176502A1 (en) Image display apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221125

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221205

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150