JP2016033757A - 表示装置、表示装置の制御方法、および、プログラム - Google Patents
表示装置、表示装置の制御方法、および、プログラム Download PDFInfo
- Publication number
- JP2016033757A JP2016033757A JP2014156645A JP2014156645A JP2016033757A JP 2016033757 A JP2016033757 A JP 2016033757A JP 2014156645 A JP2014156645 A JP 2014156645A JP 2014156645 A JP2014156645 A JP 2014156645A JP 2016033757 A JP2016033757 A JP 2016033757A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- data
- voice
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000001514 detection method Methods 0.000 claims description 44
- 230000006870 function Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 description 69
- 230000008569 process Effects 0.000 description 46
- 238000012545 processing Methods 0.000 description 40
- 210000001508 eye Anatomy 0.000 description 21
- 238000004891 communication Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 14
- 210000003128 head Anatomy 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- WABPQHHGFIMREM-UHFFFAOYSA-N lead(0) Chemical compound [Pb] WABPQHHGFIMREM-UHFFFAOYSA-N 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Abstract
【解決手段】頭部装着型表示装置100は、使用者に画像を視認させるとともに外景を透過する画像表示部20と、音声を検出するマイク63とを備える。また、データを取得するデータ取得部DAと、画像表示部20を透過して外景を視認可能なときに、マイク63で検出した音声、及び、データ取得部DAで取得したデータに基づいて、画像表示部20に表示をさせる付加データ表示制御部166とを備える。
【選択図】図2
Description
本発明は、上述した事情に鑑みてなされたものであり、装置外部の、外的な要因に対応して情報を表示する表示装置、表示装置の制御方法、および、プログラムを提供することを目的とする。
本発明によれば、音声の状態や内容等を反映してデータを表示するので、表示装置外部の、外的な要因に対応して情報を表示することができる。
本発明によれば、使用者が認識する外景に対応して表示を行うことができる。
本発明によれば、使用者が認識する外景に関する情報を、音声に基づいて容易に得ることができる。
本発明によれば、使用者が認識する外景に関する情報を、撮像画像に基づいて容易に得ることができる。
本発明によれば、マイク等を用いることなく音声を検出し、音声を発した人を特定できる。
本発明によれば、音声を検出し、音声に対応する表示態様でデータを表示して、使用者に見せることができる。
本発明によれば、例えば検出した音声に関連するデータを表示することができる。音声検出部により検出される音声が使用者にも聞こえている場合、音声に対応するデータを表示することで、音声に対応した表示の演出を行うこともでき、音声に関する情報を使用者に提供できる。
本発明によれば、表示装置の外部の音声に基づいて文字を表示する。これにより、文字を利用して、音声に関する情報を提供できる。
本発明によれば、例えば、音声に対応する文字を目立たせることができ、音声に関連する情報を文字によって見やすく提供できる。また、音声に対応する文字と他の文字とを異なる態様で使用者に見せることができる。このため、表示により多くの情報の提供を可能とし、目立たせることができる。
本発明によれば、音声を検出し、検出した音声の言語で文字を表示する。これにより、音声と同じ言語で文字による情報の提供を行うことができる。
本発明によれば、検出した音声の言語の文字を表示するとともに、設定された言語の文字を表示するので、多言語で詳細な情報を提供できる。
本発明によれば、表示する言語とは異なる言語の文字を変換して、表示できるので、多言語の文字を含むデータを取得した場合であっても使用者に情報を提供できる。
本発明によれば、音声の内容を表示できる。
本発明によれば、音声の状態や内容等を反映してデータを表示するので、表示装置外部の、外的な要因に対応して情報を表示することができる。
本発明によれば、音声の状態や内容等を反映してデータを表示するので、表示装置外部の、外的な要因に対応して情報を表示することができる。
調光板20Aは右光学像表示部26および左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
カメラ61の撮影方向すなわち画角は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮影する方向である。また、カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮影できるようにカメラ61の撮像範囲が設定されていると、より好ましい。
指向性を有するマイク63は、頭部装着型表示装置100を装着した使用者の視線方向からの音声を特に良好に集音し、検出する。マイク63の指向性を確保するため、マイク63またはマイク63を収容する部品に構造的な特徴を持たせてもよい。例えば図1の例において、使用者が右イヤホン32及び左イヤホン34を装着した状態で、マイク63の集音部が、使用者の視線方向を向くように、マイク63及び連結部材46が設計されていればよい。或いは、マイク63を、右保持部21または左保持部23に埋込設置してもよい。この場合、右保持部21または左保持部23の前面側、すなわち右光学像表示部26、左光学像表示部28に並ぶ面に集音用の穴を穿設すれば、使用者の視線方向に対応する指向性を持たせることができる。使用者の視線方向とは、例えば、右光学像表示部26及び左光学像表示部28が面する方向、使用者が右光学像表示部26及び左光学像表示部28越しに見る視界の中心を向く方向、カメラ61の撮影方向等と言い換えることができる。なお、マイク63の指向性の方向を可変としてもよい。この場合、使用者の視線方向を検出して、その方向を向くようにマイク63の視線方向を調整する構成としてもよい。
図2に示すように、表示システム1は、外部機器OAと、頭部装着型表示装置100とを備える。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置として用いられる。
操作部135は、使用者による操作を検出する。操作部135は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18の各部を備える。
電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。
制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
外部機器OAが、通信部117に無線接続された場合には、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス180に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス180より取得して、画像表示部20に画像を表示するための制御を行う。よって、通信部117、及び、インターフェイス180を、以下総称してデータ取得部DAと呼ぶ。
データ取得部DAは、外部機器OAからコンテンツデータを取得する。データ取得部DAは、頭部装着型表示装置100が表示する画像のデータ(以下、「表示画像データ」という)を、外部機器OAから取得する。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
本実施形態では、一例として、データ取得部DAが取得したデータに基づき、付加データ表示制御部166が、画像表示部20により文字を表示させる例について説明する。
上述のように、マイク63は指向性を有するので、付加データ表示制御部166は、頭部装着型表示装置100を装着した使用者の視線方向からの音声を認識し、この音声に基づき処理を行う。例えば、付加データ表示制御部166は、表示処理を実行し、音声データから生成したテキスト(文字列)を構成する文字、または、このテキストに関連するデータを、画像表示部20により表示させる。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))やBluetooth(登録商標)規格に準じた無線データ通信を実行する。
ここで、画像供給装置OAを無線通信回線により制御装置10に接続することも可能である。この場合、画像供給装置OAは、通信部117と無線通信を実行して、コンテンツのデータをMiracast(登録商標)等の無線通信技術により送信する。
頭部装着型表示装置100は、使用者の眼球の方向を検出して視線方向を特定する機構を備えても良いが、使用者の視線方向を推定してもよい。頭部装着型表示装置100は、使用者の眼の前に画像表示部20が配置するように、頭部に装着され固定される。従って、使用者の視線方向は、画像表示部20を基準として使用者の頭部とは反対方向を向いていると推定できる。例えば、図1に示すカメラ61の撮像方向は、視線方向を向く。また、マイク63の指向性は使用者の視線方向にすることができる。
付加データ表示制御部166は、使用者の視線方向から頭部装着型表示装置100に向かって来る光や音声について得られる情報を、使用者に視認される外景に関する情報とする。
制御部140は、言語処理を実行する(ステップS3)。言語処理では、付加データ表示制御部166が、ステップS2の音声検出処理で処理された音声データについて、言語の種類に関する処理を行う。
さらに、制御部140は、表示処理を実行する(ステップS4)。表示処理では、付加データ表示制御部166が、ステップS2の音声検出処理とステップS3の言語処理との処理結果に基づき、文字の表示属性を決定し、表示制御部190が表示を行う。
ステップS2〜S4の各処理の詳細は後述する。
音声検出処理では、マイク63により音声を検出する(ステップS11)。すなわち、マイク63が音声を集音して音声信号を制御部140に出力し、音声処理部170が音声信号に基づきディジタル音声データを生成する。
また、視線方向にある音源の種類が予め判明している場合、付加データ表示制御部166は、音声処理部170が生成した音声データに基づき、マイク63が集音した音声の周波数分布を求め、該当する音源からの音を多く含む特定の周波数成分の音を抽出し、この周波数成分の音を、視線方向の音声としてもよい。或いは、付加データ表示制御部166は、マイク63が集音した音声の周波数分布において音量の大きい周波数帯の音声を抽出してもよい。このように、付加データ表示制御部166は、音量を基準とした処理や、音源を特定する処理等により、視線方向からの音声を特定する。
付加データ表示制御部166がステップS12で特定する視線方向の音声、或いは、特定した音声に関連する情報は、画像表示部20を透過して視認される外景に関する情報の一例に相当する。
図8(A)に示す劇場THは、ステージSTを向くように、頭部装着型表示装置100の使用者を含む観客用の座席SHが多数配置された構成を有する。頭部装着型表示装置100の使用者は、座席SHに着席してステージSTを見るときに、頭部装着型表示装置100を使用する。
音声認識処理は、音声データをテキスト(文字)データに変換する処理である。図8(B)の例では、付加データ表示制御部166は出演者A1または出演者A2が発する音声から、テキストデータを生成する。
なお、視線方向の音声を特定できなかった場合(ステップS13;NO)、付加データ表示制御部166はステップS14及びS15の処理を省略する。
言語処理では、音声検出処理(図4)で生成された文字列の言語を特定する(ステップS21)。例えば、付加データ表示制御部166は、英語、日本語、中国語(簡体字)、中国語(繁体字)、スペイン語、ポルトガル語、フランス語、ドイツ語、イタリア語等の言語から、音声検出処理で生成された文字列が属する言語を特定する。付加データ表示制御部166は、音声検出処理で音声認識を実行する場合(図4のステップS14)に言語を特定してもよい。この場合、ステップS21では、音声認識処理で特定された言語を示すデータを取得すればよい。
また、他言語の同時表示をするよう設定されていない場合(ステップS26;NO)、ステップS27の処理を実行せずステップS4の表示処理に移行する。
表示処理では、付加データ表示制御部166が、音声検出処理(ステップS2)及び言語処理(ステップS3)で生成または選択された表示用のデータ(例えば、文字列)を取得する(ステップS31)。
このステップS32で、付加データ表示制御部166は、ステップS11(図4)で検出された音声を変換した文字列、または検出された音声に対応する文字列などを抽出する。ここで、付加データ表示制御部166は、検出された音声に対し音声認識を行い、認識した文字列に基づき、表示データを抽出してもよい。
また、付加データ表示制御部166は、ステップS33において、検出された音声に関連する表示データ(文字や文字列)が、他の表示データより強調されるように、表示属性を決定する。例えば、付加データ表示制御部166は、ステップS32で抽出した表示データの表示サイズを他の表示データよりも大きくする、表示色を他の表示データの表示色より目立つ色にする。このようにして、付加データ表示制御部166は、全表示データの表示形態を決定する。
図9(A)に示すように、使用者に見える視野VRには、音声対応文字列301、302が表示される。図9(A)には使用者の視線方向が出演者A2を向いている例を示す。音声対応文字列302は、使用者の視線方向から検出された音声に関連する文字列であり、この例では出演者A2が発した音声に関連する文字列である。一方、音声対応文字列301は、頭部装着型表示装置100が取得した表示データのうち、使用者の視線方向から検出された音声に関連する表示データではないものである。例えば、音声に関連しない表示データや、音声対応文字列302の表示タイミングよりも前に検出された音声に関連する表示データである。
また、音声対応文字列302は、出演者A2が現在発している音声に関連する文字列であることを示す吹き出し形状の枠内に表示され、音声対応文字列301は、矩形の枠内に表示されている。文字列の表示枠も属性の1つに含まれる。
図9(B)では、視野VRに音声対応文字列303、304が表示される。音声対応文字列303は、使用者の視線方向から検出された音声に関連する文字列であり、この例では出演者A2が発した音声に関連する英語の文字列である。一方、音声対応文字列304は、音声対応文字列303に対応する他の言語(中国語(簡体字))の文字列である。音声対応文字列303、304は、いずれも出演者A2が発した音声に関連する表示データであるから、同様の表示属性が設定される。
さらに、図9(A)及び(B)の例では、音声対応文字列301、302、303、304は、使用者がステージSTを見るときに妨げにならない位置に配置される。例えば、図に示したように、ステージST上方のカーテンCTに重なる位置や、舞台袖SS、或いは、ステージSTの下方に配置される。
付加データ表示制御部166は、カメラ61を制御して撮像させ、撮像された画像を取得する(ステップS41)。続いて、付加データ表示制御部166は、カメラ61の撮像画像に基づいて口の動きを検出する(ステップS42)。例えば、付加データ表示制御部166は、カメラ61が撮像した複数の画像を時系列順に取得し、各画像から人間の口の画像を抽出し、抽出した画像の形状変化を検出する。付加データ表示制御部166は、ステップS42で検出した口の動きから発話内容を検出し(ステップS43)、検出した発話内容に対応する文字列を生成して(ステップS44)、音声検出処理を終了する。付加データ表示制御部166がステップS42で検出する口の動き、及び/又は、ステップS43で特定する発話内容に関連する情報は、画像表示部20を透過して視認される外景に関する情報の一例に相当する。
また、付加データ表示制御部166は、画像表示部20を透過して視認される外景に関する情報を取得し、取得した情報に基づいて画像表示部20に表示をさせる。これにより、頭部装着型表示装置100の使用者が認識する外景に対応して表示を行うことができる。
また、付加データ表示制御部166は、データ取得部DAで取得したデータに基づき文字を画像表示部20に表示させるので、文字を利用して、音声に関する情報を提供できる。また、頭部装着型表示装置100は、図9(A)に例示したように、カメラ61やマイク63により検出した音声に対応する文字を、他の文字(表示データ)とは異なる態様で表示させる。具体的には、ステップS33で、他の文字とは異なる表示属性を決定し、表示サイズを他の表示データよりも大きくする、表示色を他の表示データの表示色より目立つ色にする、吹き出し形状の枠内に表示する、等の表示態様とすることが挙げられる。また、他の文字とは異なる態様とするため、文字フォントの変更、文字の背景色の設定または変更、抜き文字への変更等を行ってもよい。これにより、例えば、音声に対応する文字を目立たせることができ、音声に関連する情報を文字によって見やすく提供できる。音声に対応する文字と他の文字とを異なる態様で使用者に見せることができる。このため、表示により多くの情報の提供を可能とし、目立たせることができる。
例えば、上記実施形態では、音声対応文字列301〜304を平面画像として表示する例について説明したが、これらの一部または全部を立体画像として表示してもよい。この場合、付加データ表示制御部166は、表示データ(文字列)を立体画像として表示するか平面画像として表示するかを、表示属性に含めて、決定する処理を行ってもよい。
また、制御装置10と画像表示部20とが、より長いケーブルまたは無線通信回線により接続され、制御装置10として、ノート型コンピューター、タブレット型コンピューターまたはデスクトップ型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
Claims (16)
- 透過型の表示装置であって、
使用者に画像を視認させるとともに外景を透過する表示部と、
音声を検出する音声検出部と、
データを取得するデータ取得部と、
前記音声検出部で検出した音声、及び、前記データ取得部で取得したデータに基づいて、前記表示部に表示をさせる制御部と、
を備えることを特徴とする表示装置。 - 前記制御部は、前記表示部を透過して視認される外景に関する情報を取得し、取得した情報に応じて前記表示部に表示をさせること、を特徴とする請求項1記載の表示装置。
- 前記制御部は、前記音声検出部で検出した音声に基づき、前記表示部を透過して視認される外景に関する情報を取得すること、を特徴とする請求項2記載の表示装置。
- 撮像部を備え、
前記制御部は、前記撮像部の撮像画像から、前記表示部を透過して視認される外景に関する情報を取得すること、を特徴とする請求項2記載の表示装置。 - 前記制御部は、前記撮像部の撮像画像から発話中の人物の画像を検出し、検出した画像に基づき前記音声検出部が検出した音声から発話中の人物の音声を抽出し、抽出した音声と、前記データ取得部で取得したデータとに基づいて、前記表示部に表示をさせること、を特徴とする請求項4記載の表示装置。
- 前記制御部は、前記音声検出部で検出した音声に対応する表示態様で、前記データ取得部で取得したデータを前記表示部に表示させること、を特徴とする請求項1から5のいずれかに記載の表示装置。
- 前記制御部は、前記データ取得部で取得したデータのうち前記音声検出部で検出した音声に対応するデータを前記表示部に表示させること、を特徴とする請求項1から6のいずれかに記載の表示装置。
- 前記制御部は前記データ取得部で取得したデータに基づき文字を前記表示部に表示させること、を特徴とする請求項1から7のいずれかに記載の表示装置。
- 前記音声検出部により検出された音声に対応する文字を、他の文字とは異なる態様で表示させること、を特徴とする請求項8記載の表示装置。
- 前記制御部は、前記音声検出部が検出した音声の言語の種類を特定し、特定した言語の文字を前記表示部に表示させること、を特徴とする請求項8または9記載の表示装置。
- 前記制御部は、前記特定した言語の文字とともに、設定された言語の文字を前記表示部に表示させること、を特徴とする請求項10記載の表示装置。
- 前記データ取得部が取得したデータに含まれる文字を、表示する言語の文字に変換する言語変換部を備えること、を特徴とする請求項6または7記載の表示装置。
- 前記音声検出部で検出した音声の音声認識を行って認識結果の文字データを出力すること、を特徴とする請求項1から12のいずれかに記載の表示装置。
- 前記制御部は、前記表示部を透過して視認される外景の一部と前記表示装置との相対位置に対応する表示形態で、前記表示部に表示を行うこと、を特徴とする請求項1から13のいずれかに記載の表示装置。
- 外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置の制御方法であって、
使用者の視線方向から発される音声を検出し、
データを取得し、
検出した音声、及び、取得したデータに基づいて、前記表示部に表示をさせること、
を特徴とする表示装置の制御方法。 - 外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
使用者の視線方向から発される音声を検出し、データを取得し、検出した音声および取得したデータに基づいて、前記表示部に表示をさせる制御部と、
して機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014156645A JP2016033757A (ja) | 2014-07-31 | 2014-07-31 | 表示装置、表示装置の制御方法、および、プログラム |
US14/720,258 US9972319B2 (en) | 2014-07-31 | 2015-05-22 | Display device, method of controlling display device, and program having display of voice and other data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014156645A JP2016033757A (ja) | 2014-07-31 | 2014-07-31 | 表示装置、表示装置の制御方法、および、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016033757A true JP2016033757A (ja) | 2016-03-10 |
Family
ID=55180675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014156645A Withdrawn JP2016033757A (ja) | 2014-07-31 | 2014-07-31 | 表示装置、表示装置の制御方法、および、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9972319B2 (ja) |
JP (1) | JP2016033757A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109521835A (zh) * | 2017-09-20 | 2019-03-26 | 富士施乐株式会社 | 信息处理设备、信息处理系统和信息处理方法 |
JP2020504348A (ja) * | 2016-10-13 | 2020-02-06 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 仮想現実に基づくサービス制御およびユーザ識別認証 |
WO2021256318A1 (ja) * | 2020-06-15 | 2021-12-23 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6518134B2 (ja) * | 2015-05-27 | 2019-05-22 | 株式会社ソニー・インタラクティブエンタテインメント | 眼前装着型表示装置 |
JP2017049869A (ja) | 2015-09-03 | 2017-03-09 | 株式会社東芝 | メガネ型ウェアラブル端末とそのデータ処理方法 |
JP6017664B1 (ja) * | 2015-12-28 | 2016-11-02 | 株式会社コロプラ | 情報処理方法及び情報処理プログラム |
KR101894928B1 (ko) * | 2017-02-14 | 2018-09-05 | (주)스톤아이 | 방문 횟수를 이용한 보너스 정산 시스템의 보너스 금액 산출 장치 및 방법 |
JP6942995B2 (ja) * | 2017-03-31 | 2021-09-29 | ブラザー工業株式会社 | 情報処理プログラム、情報処理装置、および情報処理装置の制御方法 |
EP3495942B1 (en) * | 2017-12-07 | 2023-05-24 | Panasonic Intellectual Property Management Co., Ltd. | Head-mounted display and control method thereof |
TWI671707B (zh) * | 2018-06-15 | 2019-09-11 | 緯創資通股份有限公司 | 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11203008A (ja) * | 1998-01-09 | 1999-07-30 | Canon Inc | 情報処理装置及び情報処理装置における言語切替制御方法 |
US20020158816A1 (en) * | 2001-04-30 | 2002-10-31 | Snider Gregory S. | Translating eyeglasses |
JP2011221236A (ja) * | 2010-04-08 | 2011-11-04 | Sony Corp | 頭部装着型ディスプレイにおける画像表示方法 |
JP2012059121A (ja) * | 2010-09-10 | 2012-03-22 | Softbank Mobile Corp | 眼鏡型表示装置 |
JP2013008031A (ja) * | 2011-06-24 | 2013-01-10 | Honda Motor Co Ltd | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
JP2013172411A (ja) * | 2012-02-22 | 2013-09-02 | Nec Corp | 音声認識システム、音声認識方法および音声認識プログラム |
JP2014120963A (ja) * | 2012-12-18 | 2014-06-30 | Seiko Epson Corp | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7221405B2 (en) * | 2001-01-31 | 2007-05-22 | International Business Machines Corporation | Universal closed caption portable receiver |
US8965460B1 (en) * | 2004-01-30 | 2015-02-24 | Ip Holdings, Inc. | Image and augmented reality based networks using mobile devices and intelligent electronic glasses |
US20060103591A1 (en) * | 2004-11-15 | 2006-05-18 | Canon Kabushiki Kaisha | Information processing apparatus and method for providing observer with information |
US8696113B2 (en) * | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
WO2010105246A2 (en) * | 2009-03-12 | 2010-09-16 | Exbiblio B.V. | Accessing resources based on capturing information from a rendered document |
WO2011106797A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20120078628A1 (en) * | 2010-09-28 | 2012-03-29 | Ghulman Mahmoud M | Head-mounted text display system and method for the hearing impaired |
US8209183B1 (en) * | 2011-07-07 | 2012-06-26 | Google Inc. | Systems and methods for correction of text from different input types, sources, and contexts |
TW201316328A (zh) * | 2011-10-14 | 2013-04-16 | Hon Hai Prec Ind Co Ltd | 聲音反饋裝置及其工作方法 |
US9292082B1 (en) * | 2011-11-08 | 2016-03-22 | Google Inc. | Text-entry for a computing device |
US9111522B1 (en) * | 2012-06-21 | 2015-08-18 | Amazon Technologies, Inc. | Selective audio canceling |
JP2014056217A (ja) | 2012-09-14 | 2014-03-27 | Olympus Corp | ウェアラブル携帯型表示装置、頭部装着型表示装置、表示処理システム及びプログラム |
US9966075B2 (en) * | 2012-09-18 | 2018-05-08 | Qualcomm Incorporated | Leveraging head mounted displays to enable person-to-person interactions |
EP2909755B1 (en) * | 2012-10-22 | 2019-08-28 | Sony Corporation | User interface with location mapping |
US9311718B2 (en) * | 2014-01-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Automated content scrolling |
US9462108B2 (en) * | 2014-05-12 | 2016-10-04 | Lg Electronics Inc. | Mobile terminal and method for controlling the mobile terminal |
JP6344125B2 (ja) * | 2014-07-31 | 2018-06-20 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
US9959591B2 (en) * | 2014-07-31 | 2018-05-01 | Seiko Epson Corporation | Display apparatus, method for controlling display apparatus, and program |
JP2016033759A (ja) * | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
US20160084937A1 (en) * | 2014-09-22 | 2016-03-24 | Invensense Inc. | Systems and methods for determining position information using acoustic sensing |
JP6467922B2 (ja) * | 2015-01-06 | 2019-02-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム |
-
2014
- 2014-07-31 JP JP2014156645A patent/JP2016033757A/ja not_active Withdrawn
-
2015
- 2015-05-22 US US14/720,258 patent/US9972319B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11203008A (ja) * | 1998-01-09 | 1999-07-30 | Canon Inc | 情報処理装置及び情報処理装置における言語切替制御方法 |
US20020158816A1 (en) * | 2001-04-30 | 2002-10-31 | Snider Gregory S. | Translating eyeglasses |
JP2011221236A (ja) * | 2010-04-08 | 2011-11-04 | Sony Corp | 頭部装着型ディスプレイにおける画像表示方法 |
JP2012059121A (ja) * | 2010-09-10 | 2012-03-22 | Softbank Mobile Corp | 眼鏡型表示装置 |
JP2013008031A (ja) * | 2011-06-24 | 2013-01-10 | Honda Motor Co Ltd | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム |
JP2013172411A (ja) * | 2012-02-22 | 2013-09-02 | Nec Corp | 音声認識システム、音声認識方法および音声認識プログラム |
JP2014120963A (ja) * | 2012-12-18 | 2014-06-30 | Seiko Epson Corp | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 |
Non-Patent Citations (1)
Title |
---|
竹岡 駿: "ARとテキストマイニングを融合させた論理的思考支援", 一般社団法人 人工知能学会 第28回全国大会論文集CD−ROM [CD−ROM] 2014年度 人工, JPN6018024305, 12 May 2014 (2014-05-12), pages 3, ISSN: 0003826657 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020504348A (ja) * | 2016-10-13 | 2020-02-06 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 仮想現実に基づくサービス制御およびユーザ識別認証 |
CN109521835A (zh) * | 2017-09-20 | 2019-03-26 | 富士施乐株式会社 | 信息处理设备、信息处理系统和信息处理方法 |
JP2019057059A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7013757B2 (ja) | 2017-09-20 | 2022-02-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
US11763529B2 (en) | 2017-09-20 | 2023-09-19 | Fujifilm Business Innovation Corp. | Information processing apparatus, information processing system, and non-transitory computer readable medium |
CN109521835B (zh) * | 2017-09-20 | 2024-03-22 | 富士胶片商业创新有限公司 | 信息处理设备、信息处理系统和信息处理方法 |
WO2021256318A1 (ja) * | 2020-06-15 | 2021-12-23 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US9972319B2 (en) | 2018-05-15 |
US20160035351A1 (en) | 2016-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6344125B2 (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
US9959591B2 (en) | Display apparatus, method for controlling display apparatus, and program | |
US9898868B2 (en) | Display device, method of controlling the same, and program | |
JP6155622B2 (ja) | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 | |
US9972319B2 (en) | Display device, method of controlling display device, and program having display of voice and other data | |
US20160313973A1 (en) | Display device, control method for display device, and computer program | |
JP6432197B2 (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP6380091B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP2016004340A (ja) | 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP2016039599A (ja) | 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
US20160035137A1 (en) | Display device, method of controlling display device, and program | |
JP2016024208A (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2016082466A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP6364735B2 (ja) | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 | |
JP2017102516A (ja) | 表示装置、通信システム、表示装置の制御方法、及び、プログラム | |
JP2016033611A (ja) | 情報提供システム、表示装置、および、表示装置の制御方法 | |
JP6539981B2 (ja) | 表示装置、表示装置の制御方法、表示システム、及び、プログラム | |
JP2016033763A (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2017037212A (ja) | 音声認識装置、制御方法、及び、コンピュータープログラム | |
JP6467922B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム | |
JP6394108B2 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6638195B2 (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2016034091A (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2016212769A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2016031373A (ja) | 表示装置、表示方法、表示システム、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180829 |