JPH09330041A - 表示システム - Google Patents

表示システム

Info

Publication number
JPH09330041A
JPH09330041A JP16843696A JP16843696A JPH09330041A JP H09330041 A JPH09330041 A JP H09330041A JP 16843696 A JP16843696 A JP 16843696A JP 16843696 A JP16843696 A JP 16843696A JP H09330041 A JPH09330041 A JP H09330041A
Authority
JP
Japan
Prior art keywords
observer
sound
data
image
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16843696A
Other languages
English (en)
Inventor
Yukiko Kuwayama
裕紀子 桑山
Hisashi Tento
久 天藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP16843696A priority Critical patent/JPH09330041A/ja
Publication of JPH09330041A publication Critical patent/JPH09330041A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

(57)【要約】 【課題】 音声解析技術を実用に供する場合に、観察者
に不自然な姿勢や体勢を要求することなく、採取した音
声に関する画像情報を視認でき、実用分野において音声
解析技術を扱うことのできる範囲を広げるのに供するこ
とができる表示システムを提供する。 【解決手段】 音声を採取する手段2と、その採取した
音声に対応する画像表示データを生成する手段3と、そ
の画像表示データに対応する画像を表示する頭部装着型
表示装置1とを備える。人や物の発する音声を採取し、
その採取した音声を解析することで得た所要の情報を頭
部装着型表示装置1に表示する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声情報に対応す
る画像情報を頭部装着型表示装置により観察者の視野範
囲に表示する表示システムに関する。
【0002】
【従来の技術】人や物の発する音声を採取し、その採取
した音声を解析することで所要の情報を表示する技術が
開発されている。
【0003】例えば、各種装置等の発する音を採取して
大きさを解析することで、騒音レベルを数値として表示
する表示装置が実用化されている。また、音声認識技術
を用いて人の発する音声を言語として認識し、その認識
した言語を文字として表示したり、自動翻訳技術を利用
して認識された言語を異なる言語に翻訳し、その翻訳さ
れた言語を文字として表示する技術が開発されている。
また、回転機械の発する音の周波数は、その回転数に応
じて変化することから、その音を採取して周波数を解析
することで、その回転数を数値として表示したり、共振
周波数との差を表示することができる。また、マイクロ
ホン等から入力した人の発する音声を、予め採取した音
声と比較することで、声紋鑑定による個人識別を行な
い、その判定結果を表示することができる。また、鳥や
動物等の鳴き声を採取して解析し、生物分類に応じて予
め求めた鳴き声と比較することで、その鳴き声の主の名
称や特徴等を表示することが考えられる。
【0004】
【発明が解決しようとする課題】従来の技術では、音声
の解析機能を有するコンピュータにマイクロホンを接続
し、そのコンピュータによる解析結果に基づく画像を、
そのコンピュータに接続された載置型の表示装置に表示
するものであった。そのため、実用に供する場合は観察
者に不自然な姿勢や体勢が要求される。例えば、自己の
認識できない言語を話す人と会話をする場合において、
音声認識技術と自動翻訳技術を利用して相手の発する音
声を自己の認識可能な文字として表示することができた
としても、話相手と向き合うことができないため、現実
の会話の場において実用に供することはできない。ま
た、その他の物の音声情報に対応する画像情報を表示す
る場合も、その音源を観察しながら画像情報を視認する
ことは困難である。さらに、従来のシステムは大型で携
帯に不便であるため、使用場所が制限されてしまう。そ
のため、実用分野において上記のような音声解析技術を
扱うことのできる範囲が広がらないという問題があっ
た。
【0005】本発明は、上記問題を解決することのでき
る表示システムを提供することを目的とする。
【0006】
【課題を解決するための手段】本発明の表示システム
は、音声を採取する手段と、その採取した音声に対応す
る画像表示データを生成する手段と、その画像表示デー
タに対応する画像を表示する頭部装着型表示装置とを備
えることを特徴とする。
【0007】上記構成によれば、観察者が任意の方向を
向いた状態で、すなわち、その音声の採取源である対象
物と向き合ったり、その対象物の観察を行ないながら、
採取した音声に対応する画像を視認することができる。
【0008】その音声を採取する手段と、その採取した
音声に対応する画像表示データを生成する手段とが、そ
の観察者に装着可能であるのが好ましい。これにより、
システムは携帯に便利なものになる。また、観察者はハ
ンドフリーの状態で、眼前で採取した音声に関する画像
情報を視認できる。この場合、その画像表示データを生
成するために用いられる情報を記憶する手段が、その観
察者と別個に設けられ、その記憶された情報が、その画
像表示データを生成する手段に随時伝送可能とされてい
るのが好ましい。これにより、その画像表示データを生
成する手段に伝送される情報の種類を変更することで、
生成可能な画像データの種類を変更することができる。
【0009】その音声を採取する手段と、その採取した
音声に対応する画像表示データを生成する手段とが、観
察者とは別個に配置され、その画像表示データ生成手段
と頭部装着型表示装置とが通信機能を有するデータ処理
ユニットより接続され、そのデータ処理ユニットが観察
者に装着可能であるのが好ましい。これにより、観察者
は頭部装着型表示装置とデータ処理ユニットのみを装着
すればよく、システムは持ち運びに便利なものになって
使用場所が制限されることがなく、また、観察者はハン
ドフリーの状態で採取した音声に関する画像情報を視認
できる。
【0010】
【発明の実施の形態】図1〜図4を参照して本発明の第
1実施形態を説明する。
【0011】図1に示す表示システムは、頭部装着型表
示装置1と、マイクロホン2と、情報処理ユニット3と
を備える。
【0012】その頭部装着型表示装置1は、図2に示す
ように、観察者4の頭部に装着可能な保持部5と、この
保持部5に保持される表示部6とを有する。その保持部
5は、図示の例では弾性材製のバンド状とされることで
観察者4の頭部に装着されるが、その形態は限定され
ず、例えばヘルメット状のものであってもよい。なお、
本件発明において頭部とは、顔面を含む頸部から上の部
分を言う。その表示部6は、画像表示光の出射手段6a
と、その画像表示光の光路を変更して観察者4の視野範
囲に導く光学系6bと、その出射手段6aと光学系6b
とを連結する可動アーム6cとを有する。その画像表示
光の出射手段6aは、例えばCRTディスプレイやバッ
クライト付き液晶表示パネル等の公知の画像表示器30
と、後述の表示制御部31により構成できる。その光学
系6bは、画像表示光を反射あるいは回折により光路変
更すると共に前方からの光を透過するハーフミラーやホ
ログラム素子等のコンバイナや、画像表示光を反射する
ことで光路変更するミラー等により構成でき、さらに、
集光用レンズ系を含むものであってもよい。また、その
光学系6bは、出射手段6aに可動アーム6cを介して
連結され、その画像表示光を観察者4の視野範囲に導く
位置と、観察者4の視野範囲外の退避位置との間で位置
変更可能とされている。
【0013】なお、その保持部5には、ヘッドホン8と
スピーカ9とが取り付けられ、観察者4は別途音声情報
を聴くことができると共に、自己の声を拡大することが
できる。
【0014】そのマイクロホン2は観察者4の周囲の音
声を採取するもので、観察者4に装着可能とされてい
る。そのマイクロホン2は、例えば観察者4の前方等の
特定方向の空間の音声を採取する指向性を有するもので
もよいし、観察者4の全周囲の音声を採取するものであ
ってもよい。
【0015】その情報処理ユニット3は、そのマイクロ
ホン2により採取した音声に対応する画像表示データを
生成するもので、マイクロホン2から入力された音声信
号がケーブル11を介して伝送され、生成した画像表示
データをケーブル12を介して上記表示部6に伝送す
る。すなわち、図3に示すように、その情報処理ユニッ
ト3は、マイクロホン2により採取した音声データをA
/D変換して内部回路で処理可能な形式に変換する音声
データ入力インターフェイス21、採取した音声データ
の解析と解析結果に対応する画像表示データの生成を含
むシステムの制御を行うためのプログラムを内蔵するメ
モリ22、その音声データを解析する際のデータベース
を記憶すると共に解析結果に対応する画像表示データを
格納するハードディスク等の大容量メモリ23、その記
憶されたプログラムに基づき演算を実行するCPU2
4、その画像表示データを記憶する画像メモリ25、こ
の画像メモリ25に対してデータの読み書きを行なう画
像コントローラ26、この情報処理ユニット3のON/
OFFスイッチとして機能する操作部27に接続される
スイッチインターフェイス29を有する。さらに、上記
のように観察者4にヘッドホン8を介して音声情報を付
与する場合、採取した音声に対応して画像表示データだ
けでなく音声データも生成し、その音声データ出力イン
ターフェイス28を介して上記ヘッドホン8に出力す
る。その画像コントローラ26が、上記表示部6の表示
制御部31に接続される。なお、そのデータベースのメ
モリとして、CD−ROMやMO等の外部装置を用いて
もよい。
【0016】その表示制御部31が、その情報処理ユニ
ット3により生成された画像表示データを画像コントロ
ーラ26から受け取り、画像表示器30に送ることで、
その画像表示データに対応する画像表示光が出射され
る。
【0017】図4、図5は、二人の観察者4a、4b
が、それぞれ上記表示システムを用いて互いに異なる言
語、例えば日本語と英語を用いて会話を行う場合を例示
する。この場合、各情報処理ユニット3は、マイクロホ
ン2により採取された音声を音声認識技術により解析す
ることで言語として認識し、さらに、認識された言語を
自動翻訳技術により解析することで異なる言語に翻訳
し、その認識された言語および翻訳された言語に対応す
る画像表示データを出力する。これにより、例えば一方
の観察者4aが英語で「How are you ? 」と発音する
と、その音声が他方の観察者4bのマイクロホン2によ
り採取され、他方の観察者4bの頭部装着型表示装置1
により、他方の観察者4bの視野範囲に、認識された英
語の文字と、翻訳された日本語「ごきげんいかがです
か」とが表示される。また、他方の観察者4bが日本語
で「良いです。ありがとう。」と発音すると、その音声
が一方の観察者4aのマイクロホン2により採取され、
一方の観察者4aの頭部装着型表示装置1により、一方
の観察者4aの視野範囲に、認識された日本語の文字
と、翻訳された英語「I'm fine thank you. 」とが表示
される。
【0018】上記構成によれば、観察者4が任意の方向
を向いた状態で、すなわち、その音声の採取源である会
話の相手等の対象物と向き合ったり、その対象物の観察
を行ないながら、採取した音声に対応する画像を視認す
ることができる。また、その音声を採取するマイクロホ
ン2と、その採取した音声に対応する画像表示データを
生成する情報処理ユニット3とが観察者4に装着可能で
あることにより、システムは携帯に便利なものになり、
観察者4はハンドフリーの状態で、眼前で採取した音声
に関する画像情報を視認できる。
【0019】図6〜図8は本発明の第2実施形態を示
す。上記第1実施形態との相違は、図6に示すように、
情報処理ユニット3は、入出力インターフェイス41と
コネクタ42a、42bとを介してホストコンピュータ
51に接続される。そのホストコンピュータ51から、
採取した音声データの解析と解析結果に対応する画像表
示データの生成を行うためのプログラムと、その音声デ
ータを解析する際のデータベースとが、メモリ22と大
容量メモリ23に随時インストール可能とされている。
すなわち、画像表示データを生成するために用いられる
プログラムやデータベースといった情報を記憶するホス
トコンピュータ51が観察者4と別個に設けられ、その
記憶された情報が情報処理ユニット3に随時伝送可能と
されている。この場合、操作部27によりプログラムや
データベースのインストールの実行や、メモリ22、2
3からの不要なプログラムやデータベースの消去が可能
とされる。これにより、その情報処理ユニット3に接続
されるホストコンピュータ51を異なるものにし、伝送
されるプログラムやデータベースの種類を変更すること
で、生成可能な画像データの種類を変更することができ
る。例えば、図7に示すように、第1のホストコンピュ
ータ51aから伝送されるプログラムとデータベースに
よれば、情報処理ユニット3は、上記第1実施形態と同
様に、マイクロホン2により採取された音声を音声認識
技術により解析することで言語として認識し、さらに、
認識された言語を自動翻訳技術により解析することで異
なる言語に翻訳し、その認識された言語および翻訳され
た言語に対応する画像表示データを出力することができ
る。また、図8に示すように、第2のホストコンピュー
タ51bから伝送されるプログラムとデータベースによ
れば、情報処理ユニット3は、その認識された言語およ
び翻訳された言語に対応する画像表示データを出力する
だけでなく、その認識された言語に対する回答の仕方を
表す英語の文例として、「I'm fine thank you. 」や
「Good」を表示するための画像表示データを出力するこ
とができる。
【0020】図9〜図12を参照して本発明の第3実施
形態を説明する。
【0021】図9、図10に示す表示システムは、頭部
装着型表示装置101と、マイクロホン102と、デー
タ処理ユニット103と、このデータ処理ユニット10
3に双方向通信可能に接続されるホストコンピュータ1
51とを備える。
【0022】その頭部装着型表示装置101は、観察者
104の頭部に装着可能な第1実施形態と同様の保持部
105と、この保持部105に保持される第1実施形態
と同様の表示部106とを有する。その表示部106
は、第1実施形態と同様の出射手段106a、光学系1
06b、および可動アーム106cを有し、その出射手
段106aの画像表示器130が表示制御部131とケ
ーブル112を介してデータ処理ユニット103に接続
される。その保持部105には、第1実施形態と同様に
ヘッドホン108が取り付けられ、また、第1実施形態
のスピーカ9に代えて別のマイクロホン102′が取り
付けられる。
【0023】図10に示すように、そのデータ処理ユニ
ット103は、このデータ処理ユニット103のON/
OFFスイッチとして機能する操作部127に接続され
るスイッチインターフェイス129、その別のマイクロ
ホン102′により採取した音声データをA/D変換し
て内部回路で処理可能な形式に変換する音声データ入力
インターフェイス121、システムの制御を行うための
プログラムを内蔵するメモリ122、ホストコンピュー
タ151から伝送される通信データを再生の必要がある
場合に記憶するためのハードディスク等の大容量メモリ
123、その記憶されたプログラムに基づきシステムの
制御を行うための演算を実行するCPU124、ホスト
コンピュータ151から伝送される画像表示データを記
憶する画像メモリ125、この画像メモリ125に対し
てデータの読み書きを行なう画像コントローラ126、
このデータ処理ユニット103のON/OFFスイッチ
として機能する操作部127に接続されるスイッチイン
ターフェイス129、上記ヘッドホン108に接続され
る音声データ出力インターフェイス128、及びホスト
コンピュータ151の通信インターフェイス152に接
続される通信インターフェイス150を有する。その画
像コントローラ126が上記表示制御部131に接続さ
れる。
【0024】そのホストコンピュータ151に、別の通
信インターフェイス152′を介して、上記データ処理
ユニット103と同様の構成の別のデータ処理ユニット
103′が双方向通信可能に接続される。その別のデー
タ処理ユニット103′に上記マイクロホン102と上
記頭部装着型表示装置101と同様の別の頭部装着型表
示装置101′が接続され、その別の頭部装着型表示装
置101′に上記マイクロホン102が取り付けられ
る。
【0025】そのホストコンピュータ151は、そのマ
イクロホン102により採取した音声に対応する画像表
示データを生成する。すなわち、記憶したプログラムと
データベースとに基づき、そのマイクロホン102によ
り採取されて別のデータ処理ユニット103′を介して
伝送された音声データを解析し、その解析結果に対応す
る画像表示データを生成し、その生成した画像表示デー
タをデータ処理ユニット103に通信インターフェイス
152を介して伝送する。そのホストコンピュータ15
1により生成された画像表示データに対応する画像表示
光が、頭部装着型表示装置101において出射される。
また、そのホストコンピュータ151は、記憶した別の
プログラムとデータベースとに基づき、その別のマイク
ロホン102′により採取されてデータ処理ユニット1
03を介して伝送された音声データを解析し、その解析
結果に対応する画像表示データを生成し、その生成した
画像表示データを別のデータ処理ユニット103′に別
の通信インターフェイス152′を介して伝送する。そ
のホストコンピュータ151により生成された画像表示
データに対応する画像表示光が、別の頭部装着型表示装
置101′において出射される。なお、ホストコンピュ
ータ151と各頭部装着型表示装置101、101′と
の間の通信は、無線通信でも有線通信でもよい。
【0026】図11、図12は、上記頭部装着型表示装
置101を装着する観察者104と、別の頭部装着型表
示装置101′を装着する観察者104′が、上記表示
システムを用いて互いに異なる言語、例えば日本語と英
語を用いて会話を行う場合を例示する。この場合、その
ホストコンピュータ151は、マイクロホン102、1
02′により採取された音声を音声認識技術により解析
することで言語として認識し、さらに、認識された言語
を自動翻訳技術により解析することで異なる言語に翻訳
し、その認識された言語および翻訳された言語に対応す
る画像表示データを出力する。これにより、例えば一方
の観察者104が英語で「Shall we goto have dinner?
」と発音すると、その音声が一方の観察者104の装
着する頭部装着型表示装置101に取り付けられた別の
マイクロホン102′により採取され、他方の観察者1
04′の装着する別の頭部装着型表示装置101′の光
学系106b′を介して、他方の観察者104′の視野
範囲に、認識された英語の文字と、翻訳された日本語
「夕食に行きませんか?」とが表示される。また、他方
の観察者104′が日本語で「いいですね。」と発音す
ると、その音声が他方の観察者104′の装着する別の
頭部装着型表示装置101′に取り付けられたマイクロ
ホン102により採取され、一方の観察者104の装着
する頭部装着型表示装置101の光学系106bを介し
て、一方の観察者104の視野範囲に、認識された日本
語の文字と、翻訳された英語「That's a good idea. 」
とが表示される。
【0027】上記構成によれば、上記第1実施形態と同
様の効果を奏することができる。また、音声を採取する
マイクロホン102と、その採取した音声に対応する画
像表示データを生成するホストコンピュータ151と
が、観察者104とは別個に配置され、そのホストコン
ピュータ151と頭部装着型表示装置101とは、観察
者104に装着可能なデータ処理ユニット103により
接続される。これにより、観察者104は頭部装着型表
示装置101とデータ処理ユニット103のみを装着す
ればよく、システムは持ち運びに便利なものになって使
用場所が制限されることがなく、また、観察者104は
ハンドフリーの状態で採取した音声に関する画像情報を
視認できる。さらに、画像表示データを観察者104と
は別個に配置されるホストコンピュータ151により生
成することで、観察者104が保持するシステム構成を
非常にコンパクトなものにできる。
【0028】なお、本発明は上記実施形態に限定されな
い。例えば、上記各実施形態で示す頭部装着型表示装置
は観察者の片方の眼に画像を視認させるものであるが、
図13に示すような両眼に画像を視認させることのでき
る眼鏡型の頭部装着型表示装置1′であっても良い。な
お、図13において上記第1実施形態と同様部分は同一
符号で示す。また、採取する音声は言語に限定されず、
機械音や人間以外の生物の発する音であってもよく、そ
の音声に対応する画像も文字に限定されず、機械音に対
応する騒音レベルを示す数値や、生物の鳴き声に対応す
る当該生物の映像等であってもよい。
【0029】
【発明の効果】本発明の表示システムによれば、音声解
析技術を実用に供する場合に、観察者に不自然な姿勢や
体勢を要求することなく、採取した音声に関する画像情
報を視認でき、実用分野において音声解析技術を扱うこ
とのできる範囲を広げるのに供することができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態の表示システムの装着状
態を示す図
【図2】本発明の第1実施形態の頭部装着型表示装置の
正面図
【図3】本発明の第1実施形態の表示システムの構成説
明用ブロック図
【図4】本発明の第1実施形態の表示システムの使用状
態を示す図
【図5】本発明の第1実施形態の表示システムの使用状
態を示す図
【図6】本発明の第2実施形態の表示システムの構成説
明用ブロック図
【図7】本発明の第2実施形態の表示システムの使用状
態を示す図
【図8】本発明の第2実施形態の表示システムの使用状
態を示す図
【図9】本発明の第3実施形態の表示システムを装着し
た観察者を示す図
【図10】本発明の第3実施形態の表示システムの構成
説明用ブロック図
【図11】本発明の第3実施形態の表示システムの使用
状態を示す図
【図12】本発明の第3実施形態の表示システムの使用
状態を示す図
【図13】本発明の変形例の表示システムの装着状態を
示す図
【符号の説明】
1、101、101′ 頭部装着型表示装置 2、102、102′ マイクロホン 3 情報処理ユニット 151 ホストコンピュータ

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 音声を採取する手段と、 その採取した音声に対応する画像表示データを生成する
    手段と、 その画像表示データに対応する画像を表示する頭部装着
    型表示装置とを備える表示システム。
JP16843696A 1996-06-07 1996-06-07 表示システム Pending JPH09330041A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16843696A JPH09330041A (ja) 1996-06-07 1996-06-07 表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16843696A JPH09330041A (ja) 1996-06-07 1996-06-07 表示システム

Publications (1)

Publication Number Publication Date
JPH09330041A true JPH09330041A (ja) 1997-12-22

Family

ID=15868089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16843696A Pending JPH09330041A (ja) 1996-06-07 1996-06-07 表示システム

Country Status (1)

Country Link
JP (1) JPH09330041A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347596A (ja) * 1998-08-31 2000-12-15 Semiconductor Energy Lab Co Ltd 携帯情報処理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347596A (ja) * 1998-08-31 2000-12-15 Semiconductor Energy Lab Co Ltd 携帯情報処理システム

Similar Documents

Publication Publication Date Title
US11854550B2 (en) Determining input for speech processing engine
JP4439740B2 (ja) 音声変換装置及び方法
US20230045237A1 (en) Wearable apparatus for active substitution
US20140129207A1 (en) Augmented Reality Language Translation
US12032155B2 (en) Method and head-mounted unit for assisting a hearing-impaired user
US11516570B2 (en) Silent voice input
WO2004049312A1 (en) Method and apparatus for providing an animated display with translated speech
WO2013077110A1 (ja) 翻訳装置、翻訳システム、翻訳方法およびプログラム
KR20160093529A (ko) 청각 장애인을 위한 착용형 장치
TWI716885B (zh) 即時外語溝通系統
CN112751582A (zh) 用于交互的可穿戴装置、交互方法及设备、存储介质
JPH09330041A (ja) 表示システム
JP2002207732A (ja) 翻訳装置
FR2899097A1 (fr) Systeme d'aide pour personne malentendante
KR101906549B1 (ko) 청각 장애인을 위한 착용형 장치
US20240340604A1 (en) Translation with audio spatialization
WO2022270456A1 (ja) 表示制御装置、表示制御方法、及びプログラム
EP4432053A1 (en) Modifying a sound in a user environment in response to determining a shift in user attention
US20220101873A1 (en) Techniques for providing feedback on the veracity of spoken statements
CN118509572A (zh) 头戴显示设备的实时字幕显示方法、头戴显示设备及介质
CN116685977A (zh) 声音翻译处理装置
KR20230079846A (ko) Ar 스마트 글래스 및 스마트 글래스의 출력 제어 방법
KR20200067787A (ko) 음성 인식 영상 피드백 제공 시스템 및 방법
CN111310530A (zh) 手语与语音转换的方法、装置、存储介质和终端设备