JP2010048851A - 表示装置および表示方法 - Google Patents
表示装置および表示方法 Download PDFInfo
- Publication number
- JP2010048851A JP2010048851A JP2008210369A JP2008210369A JP2010048851A JP 2010048851 A JP2010048851 A JP 2010048851A JP 2008210369 A JP2008210369 A JP 2008210369A JP 2008210369 A JP2008210369 A JP 2008210369A JP 2010048851 A JP2010048851 A JP 2010048851A
- Authority
- JP
- Japan
- Prior art keywords
- display
- voice
- unit
- face
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】オペラや演劇等の舞台において、音声に関する情報を可視化することにより、その場の状況を把握し易くした表示装置および表示方法を提供する。
【解決手段】観察方向の視野の一部を表示する双眼鏡等の表示装置であって、双眼鏡の視野内に文字情報を表示する表示制御部6と、視野内外における音声方向の関係を判定するステレオマイク部7と、顔の位置を検出する顔検出部5を有し、音声方向の判定結果や顔の位置の検出結果に基づいて、文字情報の表示位置を切り換える。
【選択図】 図1
【解決手段】観察方向の視野の一部を表示する双眼鏡等の表示装置であって、双眼鏡の視野内に文字情報を表示する表示制御部6と、視野内外における音声方向の関係を判定するステレオマイク部7と、顔の位置を検出する顔検出部5を有し、音声方向の判定結果や顔の位置の検出結果に基づいて、文字情報の表示位置を切り換える。
【選択図】 図1
Description
本発明は、表示装置および表示方法に関し、詳しくは、双眼鏡やカメラ等において音声を文字情報で表示するようにした表示装置および表示方法に関する。
近年、画像を画像信号に変換し、電子的に処理することにより、画像を合成したり、画像を他の情報と関連付けを行うことが容易になってきている。このような技術を利用することにより、目視することができなかった情報を画面に重畳させることができ、充実したコンテンツを提供することが可能となってきている。
例えば、特許文献1には、バードウォッチングやスポーツ観戦の際などに、観察対象の情報を表示するようにした光学機器が開示されている。すなわち、この光学機器は、鳥や花等の図鑑を有し、観察時の状況に合わせて画像を表示装置に表示する。また、特許文献2には、演劇やコンサートの鑑賞時に、字幕等を表示するようにした視覚装置が開示されている。この視覚装置では、字幕等を無線により受信し、この受信した字幕を視覚装置の中に投影している。
特開2005−78044号公報
特開2003−108049号公報
特許文献1に係わる光学機器は、図鑑等のデータを単に表示するものであって、オペラや演劇等において、歌詞や台詞等の字幕を表示するものでない。また、特許文献2に係わる視覚装置は、オペラや演劇等において字幕を表示するものであるが、登場人物の誰が台詞を言っているのかが分からない。特に、双眼鏡のように拡大して舞台等を見ている場合には、視野内に見えない人物が台詞を言っている場合があり、このような場合には字幕のみが見えても状況をよく把握することができなかった。
本発明は、このような事情を鑑みてなされたものであり、オペラや演劇等の舞台において、音声に関する情報を可視化することにより、その場の状況を把握し易くした表示装置および表示方法を提供することを目的とする。
上記目的を達成するため第1の発明に係わる表示装置は、観察方向の視野の一部を表示する表示装置において、上記視野内に音声に関する情報を表示する合成表示部と、視野内外における音声方向の関係を判定する判定部と、上記判定部の判定結果に基づいて、上記音声に関する情報の表示位置を切り換える切換制御部と、を具備する。
第2の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに、上記合成表示部内に表示された顔の位置を検出する顔位置検出部を具備し、上記切換制御部は、上記顔位置検出部の検出結果に基づいて、上記音声に関する情報の表示位置を切り換える。
第3の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに、音声の方向を検出する音声方向検出部を具備し、上記切換制御部は、上記音声方向検出部の検出結果に基づいて、上記音声に関する情報の表示位置を切り換える。
第3の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに、音声の方向を検出する音声方向検出部を具備し、上記切換制御部は、上記音声方向検出部の検出結果に基づいて、上記音声に関する情報の表示位置を切り換える。
第4の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに、上記合成表示部の視野内に表示される音声に関する情報表示も含めて記録する記録部を具備する。
第5の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに通信部を具備し、上記合成表示部の視野内に表示する音声に関する情報表示は、上記通信部を介して取得する。
第5の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに通信部を具備し、上記合成表示部の視野内に表示する音声に関する情報表示は、上記通信部を介して取得する。
第6の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに、音声変化を判定する音声判定部と、上記合成表示部内に顔が表示されているかを検出し、顔が表示されていた場合には、その顔の変化を判定する顔変化判定部と、を具備し、上記音声判定部によって判定された音声変化と、上記顔変化判定部によって判定された上記顔の変化のタイミングを比較し、上記音声の方向を特定する。
第7の発明に係わる表示装置は、上記第1の発明において、上記表示装置は、さらに、上記合成表示部に表示している視野の外を含めて撮像する撮像部と、上記撮像部によって撮像された画像に含まれる顔画像の変化を判定する顔判定部と、音声を検出する音声検出部と、を具備し、上記切換制御部は、上記音声検出部と上記顔判定部の出力結果に基づいて、上記音声に関する情報の表示位置を切り換える。
第8の発明に係わる表示装置は、観察対象を撮像し画像信号を出力する撮像素子と、音声を音声信号に変換する集音部と、上記画像信号と上記音声信号に基づいて、上記音声に関する情報を上記観察対象の表示画像に重畳して表示するための表示制御部と、を具備する。
第9の発明に係わる表示装置は、上記第8の発明において、上記表示制御部は、上記画像信号に基づいて顔の口の動きと、上記音声信号の音声変化が同期するか否かに応じて、発声している人物を判定し、上記音声に関する情報を表示する。
第10の発明に係わる表示装置は、上記第8の発明において、上記表示装置は、さらに、上記画像信号に基づいて上記観察対象を表示する表示部を有し、上記集音部は、ステレオマイクを有し、上記音声の来る方向を判定可能であり、上記表示制御部は、上記音声が上記表示部での視野範囲の外側か内側かを判定し、上記音声に関する情報を重畳して表示する位置を決定する。
第11の発明に係わる表示装置は、上記第8の発明において、上記表示装置は、さらに、上記画像信号に基づいて顔の位置を検出する顔検出部を有し、上記表示制御部は、上記顔の位置に応じて、上記音声に関する情報を重畳して表示する位置を決定する。
第12の発明に係わる表示装置は、上記第8の発明において、上記表示装置は、光学的に上記観察対象を表示するための光学部と、上記光学部の光路中に上記音声に関する情報を表示するための表示部を有する。
第13の発明に係わる表示装置は、上記第8の発明において、上記光学部は光学的ズーミングが可能であり、上記撮像素子は、固定の視野で上記観察対象を含む画像の画像データを出力する。
第12の発明に係わる表示装置は、上記第8の発明において、上記表示装置は、光学的に上記観察対象を表示するための光学部と、上記光学部の光路中に上記音声に関する情報を表示するための表示部を有する。
第13の発明に係わる表示装置は、上記第8の発明において、上記光学部は光学的ズーミングが可能であり、上記撮像素子は、固定の視野で上記観察対象を含む画像の画像データを出力する。
第14の発明に係わる表示方法は、観察方向の視野の一部を表示する表示方法であって、
視野内外における音声方向の関係を判定し、上記判定結果に基づいて、上記視野内に音声に関する情報の表示位置を切り換える。
視野内外における音声方向の関係を判定し、上記判定結果に基づいて、上記視野内に音声に関する情報の表示位置を切り換える。
第15の発明に係わる表示方法は、観察対象を撮像し画像信号を出力し、音声を音声信号に変換し、上記画像信号と上記音声信号に基づいて、上記音声に関する情報を上記観察対象の表示画像に重畳して表示する。
本発明によれば、オペラや演劇等の舞台において、音声に関する情報を可視化することにより、その場の状況を把握し易くした表示装置および表示方法を提供することができる。
以下、図面に従って本発明を適用した双眼鏡を用いて好ましい実施形態について説明する。図1は、本発明の第1実施形態に係わる双眼鏡10の構成を示すブロック図である。
この双眼鏡10には、一対のレンズ2が配置されており、このレンズ2によって観察像が結像される。この結像位置付近には一対の撮像素子3が配置されており、観察像を画像信号に変換し出力する。なお、一対の対物レンズ、または観察光学系とし、撮像素子3は一つにして、エリアごとに使い分けても良い。画像処理部1は、観察像の画像信号を入力し、後述するように、字幕等の情報を重畳する等の画像処理を行う。また、この画像処理部1は双眼鏡10の全体制御も行う。
表示制御部6は、液晶モニタ表示等の表示モニタを有し、画像処理部1から画像信号を入力し、観察対象物の画像を表示する。このとき取得画像の一部を切り出し表示すれば、対象物を拡大して表示することができる。記録部8は、記録媒体を有し、操作部材による指示に応じて、表示制御部8によって表示した画像を、そのまま記録する。
顔検出部5は、画像処理部1から画像信号を入力し、観察対象の画像の中に顔が含まれているか否か、また含まれている場合にはその位置を検出する。ステレオマイク部7は、観察対象物からの音声を収集し、音声を音声信号に変換する。ステレオマイク部7は一対のマイクを有し、音声信号を改正することにより、双眼鏡10で見ている方向に対し、どの方向から音声が聞こえているかを判定することができる。
信号受信部4は、舞台等で行われている演劇や歌劇等の台詞を字幕で表示するための字幕放送11を受信する。字幕放送11としては、ワンセグ方式等を利用できる。ここで受信した字幕は、画像処理部1に出力する。その他、画像処理部1は、顔検出部5から顔情報を入力し、また、ステレオマイク部7から音声の方向情報を入力する。そして、画像処理部1は、顔が検出され、かつ音声の方向がその顔の方向であれば、その顔の近傍で、顔にかからない位置に字幕を表示する。一方、顔が検出されず、音声が視野の外であれば、音声の方向側に、字幕を表示する。
上述の字幕の表示について、図2を用いて説明する。ユーザー15が双眼鏡10によって舞台20のうちの視野21を見ているとする。このとき、視野21内には、登場人物23は見えるが、登場人物24は視野外であり見ることができない。このような状態で、登場人物24が何か言葉を発したとしても、ユーザー15は直ちには双眼鏡10を向けるべき方向が分からない。
そこで、本実施形態においては、顔検出部5によって、画像内の顔の部分を判定し、また、ステレオマイク部7によって、声が聞こえてきた方向を判定する。これらの判定結果に基づいて、視野21の外で見えない登場人物24が発声した方向を吹き出し22等によって表示し、双眼鏡10をどちらに向ければよいかを分かるようにしている。この場合、ユーザー15は、登場人物23の表情などを注意して見ている状況であることから、登場人物23の顔部に、吹き出しの言葉がかからないように表示する。なお、この時の画面を、記録部8に記録しても良い。
外国の歌劇場の公演では、歌や台詞が外国語であることから、理解が困難な場合が多い。そこで、通常は舞台の袖に字幕表示板を用意することが多い。この字幕を字幕放送11として送信し、信号受信部4は字幕を受信すると、舞台20にいる登場人物23、24の脇に吹き出しで、台詞を表示する。なお、台詞自身が外国語である場合には、翻訳部を設け、翻訳した台詞を表示する。これによって、登場人物23、24が、どんな台詞で、どのような表情やしぐさをしたかを理解でき、作品や情景をよりよく理解することが可能となる。
オペラの公演等では、前述したように字幕が舞台の袖に表示され、字幕と登場人物のアップを同時に見ることは困難である。また、左右から話しかけるようなシーンでは、どちらの人物がどのような台詞を話したり、歌ったかが分かりにくかったが、本実施形態においては、吹き出し位置を見ることによって、容易に分かる。
このように、吹き出しの位置は音声の方向で判定し、合成用の文字は字幕放送11を利用する。なお、字幕放送11に、画面のどちらで歌われる歌かを示す信号をのせて放送し、双眼鏡10において、表示位置を切り換えるようにしても勿論かまわない。また、字幕放送11がない状況の場合には、双眼鏡10に音声認識部を設けておき、音声認識部によって台詞や歌詞等を文字に変換して表示するようにしても良い。
吹き出しのみを表示し、歌詞や台詞を表示しなくても、どちらの方向から声がかけられたかを分かるようにするだけでも良い。この場合には、登場人物23の表情が、台詞や歌詞に反応したものかどうか、それがどちらの方向からかけられた言葉であるかを双眼鏡10の視野内で分かり、舞台20の情景をいきいきと表示することができる。
次に、音声方向の判定について、図3ないし図5を用いて説明する。図3は、図1に示したブロック図において、音声方向の判定に係わる部分を抜き出したブロック図である。レンズ2と撮像素子3によって、点線の範囲が視野となり、登場人物23を含む画像を出得することができる。ステレオマイク部7は、右側マイク7R、左側マイク7L、および音声判定部7aとから構成されている。登場人物23が声を発すると、その声は右側マイク7Rと左側マイク7Lによってそれぞれ集音される。そして、音声判定部7aは、その声の来た方向を判定する。
また、登場人物23が声を発する場合、口や顔の形が、図4(a)に示すように変化し、また、声を発していない場合には、図4(b)に示すように、口が閉じている。そこで、声を集音した瞬間に口が開くなど顔に変化があり、声の集音がないときに口が閉じるなど、顔の変化と声の変化を見ることによって、画面内の人物と、発声した人物が同じ人物であるか否かを判定することができる。
図5は、前述した考え方に沿って、顔検出部5と音声判定部7の出力を考慮して画像処理部1が行う音声判定のフローチャートを示す。これによって、登場人物23が他の人物に声がかけられた場合、その人物の超えの方向と差異によって、どちらにいる人物が発声したかを判定することができる。
音声方向判定のフローに入ると、まず、基準音声の方向を決める。これは基準となる方向を決めるものであり、例えば、図2示した例では、登場人物23が最初発声しており、この場合の登場人物23の方向を基準音声の方向と定める。
まず、最初に顔位置に変化があるか否かを判定する(S1)。双眼鏡10を動かすと見ている人物が変化し、基準方向も変化してしまう。そこで、顔検出部5の検出結果に基づいて顔位置が変化しているか否かを判定する。この判定の結果、顔位置が変化している場合には、ステップS3に進み、一方、顔位置が変化していなかった場合には、基準音声の方向をリセットする(S2)。
続いて、基準音声方向情報有りか否かの判定を行う(S3)。ステップS2においてリセットされた場合には、基準音声方向情報なしの状態であり、一方、後述するステップS6におけて判定された場合には、基準音声方向情報有りの状態である。この判定の結果、基準音声方向情報がなかった場合には、次に、顔表情判定を行い(S4)、音声と同期しているか否かを判定する(S5)。前述した顔の表情と音声が同期、すなわち、口を大きく開いている時と、閉じている時とで、音の大小関係が一致しているか否かの判定である。なお、音速と光速が異なることから、この差異が無視できない場合には、音速と光速の差異を補正するようにする。補正は、例えば、ピント合わせ時のデータや、所定時時間前の画像と音声と同期具合を検出する等によって行う。
ステップS5における判定の結果、顔の表情と音声が同期していなかった場合には、基準音声方向の設定を行うことができず、そのまま元のフローに戻る。一方、判定の結果、顔の表情と音声とが同期していた場合には、ステレオマイク部7によって検出された音声の方向を基準音声方向として設定する(S6)。基準音声方向の判定ができると、元のフローに戻る。
ステップS3における判定の結果、基準音声方向情報が有った場合には、現在、ステレオマイク部7によって検出されている音声の方向が、基準音声方向と同じか否かを判定する(S11)。判定にあっては、マイク7R、7Lの入力音声の大きさの違いによって判定する。この判定の結果、基準方向からの音声であれば、画面内にある顔の人物が発声していると判定する(S12)。図2の例では、登場人物23が発声している場合である。画面内の顔が発声していると判定すると、元のフローに戻る。
ステップS11における判定の結果、基準音声の方向でなかった場合には、現在、ステレオマイク部7によって検出されている音声の方向が、基準方向に対して右側にあるか否の判定を行う(S13)。基準音声方向より、右側のマイク7Rに入ってくる音声が大きい場合には、右側にあると判定される。ステップS13における判定の結果、基準音声方向よりも右側であった場合には、画面内の右側にいる顔の人物が発声していると判定する(S14)。画面内の顔の右判定を行うと、元のフローに戻る。
ステップS13おける判定の結果、基準音声方向より右側でなかった場合には、現在、ステレオマイク部7によって検出されている音声の方向が、基準方向に対して左側にあるか否の判定を行う(S13)。基準音声方向より、左側のマイク7Lに入ってくる音声が大きい場合には、左側にあると判定される。ステップS15における判定の結果、基準音声方向よりも左側であった場合には、画面内の左側にいる顔の人物が発声していると判定する(S16)。画面内の顔の左判定を行うと、元のフローに戻る。
ステップS15における判定の結果、基準音声方向より左側でなかった場合には、いずれの方向からの音声かを判定することができないので、判定不能情報とする(S17)。判定不能とすると、元のフローに戻る。
この音声方向判定のフローによれば、双眼鏡10を通して見える顔と声の方向を判定でき、見えている顔に対してどちらの方向から声が聞こえるかが直ちに判定することが可能となる。勿論、画面中央から来る音声は、左右のマイク7R、7Lに同じ音量となることから、これを基準に、単にどちらのマイクの音量が大きいかで左右どちらから音声が聞こえるかでも良い。ただし、この方法では近距離の場合には精度良く判定できても、遠距離になると誤差が大きくなってしまう。
次に、双眼鏡10の全体動作について、図6に示す表示制御のフローチャートを用いて説明する。この双眼鏡10における観察対象物の拡大・縮小は、電子的ズーミングによって行う。
双眼鏡10に電源が入ると、表示制御のフローが動作を開始する。まず、表示を行うか否かの判定を行う(S21)。このステップでは、ユーザーが台詞や歌などの音声の方向の表示を指示するための表示操作部材の操作を行ったか否かの判定を行う。なお、オペラグラスのような使用例では、ユーザーが接眼部に目を当てた時のみ、電源が入るようにしても良い。この判定の結果、表示の指示がない場合には、この判定を繰り返す待機状態となる。
一方、ステップS21における判定の結果、表示の指示がなされた場合には、次に、撮像および表示を行う(S22)。このステップでは、撮像素子3によって取得した画像データに基づく表示制御部6によって液晶モニタ等のモニタ部に観察対象を表示する。続いて、ズーム操作がなされたか否かの判定を行う(S23)。このステップでは、ズーム操作部材によってテレ側やワイド側にズーム操作されたか、また操作された場合には、テレ側かワイド側かの判定を行う。
ステップS23における判定の結果、ズーム操作が行われた場合、撮像素子3によって取得した画像データから、ズーム操作に応じた範囲の画像データを切り出し、モニタ部に表示する(S31)。すなわち、観察対象像の拡大や、また縮小を表示制御部6が行い、表示する。
ステップS31において画面切り出しを行うと、また、ステップS23における判定の結果、ズーム操作が行われていなかった場合には、音声判定を行う(S24)。このステップでは、ステレオマイク部7が、音声入力があったか否かを判定する。この判定の結果、音声入力があった場合には、画面内顔位置判定を行う(S32)。このステップでは、顔検出部5が、撮像素子3からの画像データに基づいて、画面内に顔があるかを判定し、かつ顔が存在した場合には、その位置を検出する。
続いて、音声方向判定を行う(S33)。この音声方向判定のステップでは、図5を用いたフローを実行し、画面内において、基準音声方向に対してどの位置から音声がきているかを判定する。この結果、吹き出し等の音声関連情報をどこに表示すべきかが分かる。
音声方向判定を行うと、次に、文字情報を受信した否かについて判定する(S34)。このステップでは、信号受信部4によって字幕放送11等を受信したか否かを判定する。この判定の結果、文字情報を受信していない場合には、次に、文字化が可能か否かの判定を行う(S35)。音声について字幕放送11等がない場合にであっても、音声認識により舞台上の登場人物等の音声を認識しテキストデータに変換できるか否かの判定である。
ステップS34における判定の結果、文字情報を受信していた場合、またはステップS35における判定の結果、文字化が可能の場合には、文字化を行う(S37)。すなわち、舞台上の登場人物の音声に応じた文字情報を取得する。続いて、顔位置を避けて音声方向に表示を行う(S38)。
すなわち、双眼鏡10の視野内であって、人物の顔にかからない位置に、吹き出し等に文字で表示を行う。このときの吹き出しの位置は、ステップS33において取得した音声方向と、ステップS32において取得した顔の位置に基づいて決定する。
ステップS35における判定の結果、文字化が可能でなかった場合には、音声方向の表示を行い(S36)、この場合、顔位置を避けて表示する(S38)。すなわち、ステップS36において音声の方向が分かるように吹き出し等を用意し、ステップS38において顔を避けた位置に吹き出し等を配置するようにする。これらのステップでは、音声があるか文字化できない場合である。この場合、吹き出し等を表示するだけでも、どちらから音声が来たかという情報や、音声情報があったかどうかという情報が可視化され、鑑賞の助けにもなるし、また、後述するステップS26において記録しておけば、後日、状況を思い出し楽しむことができる。
ステップS24における判定の結果、音声がなかった場合、またはステップS38において顔位置を避けて音声方向に表示を行うと、次に、撮影を行うか否かの判定を行う(S25)。撮影は、レリーズ釦(不図示)を操作すると撮影動作に入る。この判定の結果、撮影でなかった場合には、ステップS22に戻る。
一方、ステップS25における判定の結果、撮影であった場合には、記録を行う(S26)。記録は、撮像素子3からの画像データに基づき表示制御部6において表示されている画像を記録部8に記録する。
本実施形態における双眼鏡10は、記憶の補助として撮影機能を有している。例えば、図7(a)に示すような単なる顔写真より、図7(b)に示すように、声がかかって視線が右に向いたことが分かる写真の方が、見て面白い場合がある。また、仮に、写真の中に言葉が入っていなくても、話しかけられたときの表情であることが分かる。なお、吹き出しは消去可能としても良い。
しかし、声の方向と目線の向きが異なると不自然となる。例えば、図7(c)に示す例では、声の方向は左側であり、一方目線の向きは右側に向いている。この場合は、右側の方向から声がかかり、目線が右側を向いたことから、吹き出しの位置は右側に置くことが望ましい。
また、人物の声の内容が文字になっていなくても、図7(d)に示すように、音声があったことを吹き出し等で表示することは、声がかかったことと、声がかけられた方向が写真から読み取ることができるだけでも、色々なドラマを感じさせることができる。
なお、撮影機能に関しては、オペラの公演等では撮影禁止にすればよく、学芸会等であれば、上述したような機能が役立つので、撮影許可とすれば良い。撮影禁止とするには、例えば、字幕放送11によって撮影禁止信号を送信し、信号受信部4は撮影禁止信号を受信した場合には、記録部8への画像の記録を禁止するようにすればよい。
ステップS26における記録動作が終わると、次に、表示終了か否かの判定を行う(S27)。このステップでは、表示終了操作部材の操作を行ったか否かの判定を行う。この判定の結果、終了でなかった場合には、ステップS22に戻る。一方、終了であった場合には、終了動作を行い、再び、ステップS21を実行する。
上述したような本実施形態における制御を実行することにより、例えば、図8に示すように中央の登場人物を視野21でアップして見ていたときに、登場人物23に対して声がかかった場合、いずれの方向から声がかかったかを咄嗟に判断することができる。すなわち、声の方向が、視野27の方向か、視野28の方向かが、直ぐに分かり、間違った方向に双眼鏡10を向けることを防止でき、重要な場面を見逃すことがなくなる。
また、ズーミング動作によって、視野29に広げた場合、登場人物23か登場人物24のいずれが言っているかが、吹き出し等によって表示され、容易に分かる。
次に、本発明の第2実施形態について、図9ないし図11を用いて説明する。第1実施形態では、観察対象物の縮小・拡大は電子的ズーミングによって行い、人物の声は、この電子画像に吹き出し等を重畳して表示していた。この第2実施形態においては、観察対象物の拡大・縮小は光学的ズーミングを行い、人物の声は吹き出し等の電子画像を光学画像に重畳するようにしている。
図9は、第2実施形態に係わる双眼鏡10の構成を示すブロック図である。第1実施形態と同一の部材については、同一の符号を付し、詳しい説明は省略する。本実施形態の双眼鏡10は、双眼光学部9を有している。双眼光学部9は1対の対物レンズ9a、9bと、1対の接眼レンズ9c、9dを有し、接眼部からユーザー15bが覗くことにより、観察対象物の像を立体視することができる。
レンズ2および撮像素子3は、第1実施形態においては、それぞれ1対のレンズおよび撮像素子であったが、本実施形態においては、1組のみである。レンズ2および撮像素子3は視野29の広い範囲について撮像しており、この画像データは、観察対象物の表示用ではない。観察対象物の表示は、前述した双眼光学部9によって行われ、ユーザー15bの望む視野範囲21を光学的に拡大・縮小している。双眼光学部9内には、視野判定部9bが設けられており、この視野判定部9bは、双眼光学部9の視野範囲21を判定し、この判定結果を画像処理部1に伝える。
双眼光学部9の光路中には、液晶モニタ等のモニタ部6bが配置されている。このモニタ部6bは、声を吹き出し等で表示するための表示部であり、光学的に形成される観察対象物の光学像に、このモニタ部6bによって形成される電子画像が重畳される。この構成よって、ユーザー15bは、第1実施形態と同様に、声のする方向や、その内容を確認することができる。
また、第1実施形態においては、ステレオマイク部7は、ステレオマイクとするために右側マイク7Rと左側マイク7Lを有していた。本実施形態においては、マイク部7Aは、モノラルマイク7Mを有している。したがって、マイク部7Aは、音声の有り無しは判定できるが、音声の来る方向については、判定しない。
このように第2実施形態は構成されているので、ユーザー15bは、双眼光学部9を覗いて対象物を観察し、双眼光学部9の光路中に配置した表示部6bに、字幕放送11等の文字情報がスーパーインポーズ表示される。また、双眼光学部9の視野21は、視野判定部9bによって、レンズ2、撮像素子3、および画像処理部1等で構成される電気撮像系による視野29に対してどの部分であるかが検出され、この視野21は画像処理部1によって認識される。
また、視野29のうちのどこに顔があるかは、撮像素子3からの画像信号に基づいて、顔検出部5によって判定することができる。したがって、ユーザー15が観察する双眼光学部9の視野21の外にいる人物の位置関係も判定可能となっている。例えば、図10に示すように、舞台の広い部分に対応した視野29内にいる人物25、26の顔の位置を判定することができる。双眼光学部9では視野21のみしか見ることができず、このため人物25を観察できるが、視野21の外の人物26を観察できない。
マイク部7Aのマイク7Mを通して集音した音声データによって、人の声が聞こえたことを判定したときには、撮像素子3からの画像データに基づいて、声と人の顔の変化から、いずれの人物が声を出しているかを判定する。
次に、このような音声方向を判定するための動作を、音声方向判定のフローチャートを用いて説明する。
音声方向判定のフローに入ると、まず、画面内の顔の位置を検出する(S101)。このステップでは顔検出部5によって顔を判定し、視野29内に複数の顔があれば、それぞれの位置を検出する。
次に、マイク部7Aによって、音声があるか否かの判定を行う(S102)。この判定の結果、音声がなければ、そのまま元のフローに戻る。一方、音声があった場合には、顔表情判定を行う(S103)。続いて、画面外の顔と声が同調しているか否かの判定を行う(S104)。このステップでは、図4において説明したと同様に、画面外の顔の表情が、声の変化従って口が開いたり閉じたりしているかなどについて判定する。
ステップS104における判定の結果、同期していない場合には、そのまま元のフローに戻る。一方、判定の結果、同期していた場合には、画面内の顔にかからない画面外の顔の方向、例えば、図10に示す例では左側に、文字を表示する。このときの文字表示の制御は、表示制御部6が行い、表示部6bに文字表示する位置を決定する。
以上説明したように、本実施形態では、双眼光学部9の視野21の外も電子的にモニタし、人物25、26の口の動きなどの顔の表情を判定し、どの人物が声を発しているかを判定している。このため、声の方向を、ステレオマイクなどより、さらに正確に判定することが可能である。
以上説明したように、本発明の各実施形態においては、視野内に音声に関する情報を合成表示するにあたって、視野内外における音声方向の関係を判定し、判定結果に基づいて音声に関する情報の表示位置を切り換えるようにしている。このため、音声に関する情報を可視化することができ、その場の状況を把握しやすい。また、オペラや演劇等の舞台をこの表示装置で観察する場合、誰か何を言っているのか理解を助けることができる。
なお、本発明をカメラ等に応用した場合には、単に人物の表情を捉えるのみならず、コミュニケーション等を、音声から画像情報に表示することができ、また、画像記録した場合には撮影時の雰囲気を豊かに再現できる画像を得ることができる。
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1・・・画像処理部、2・・・レンズ、3・・・撮像素子、4・・・信号受信部、5・・・顔検出部、6・・・表示制御部、6b・・・表示部、7・・・ステレオマイク部、7A・・・マイク部、7a・・・音声判定部、7L・・・左側マイク、7R・・・右側マイク、7M・・・モノラルマイク、8・・・記録部、9・・・双眼光学部、10・・・双眼鏡、11・・・字幕放送、15・・・ユーザー、20・・・舞台、21・・・視野、22・・・吹き出し、23・・・登場人物、24・・・登場人物、27・・・視野、28・・・視野、29・・・視野
Claims (15)
- 観察方向の視野の一部を表示する表示装置において、
上記視野内に音声に関する情報を表示する合成表示部と、
視野内外における音声方向の関係を判定する判定部と、
上記判定部の判定結果に基づいて、上記音声に関する情報の表示位置を切り換える切換制御部と、
を具備することを特徴とする表示装置。 - 上記表示装置は、さらに、上記合成表示部内に表示された顔の位置を検出する顔位置検出部を具備し、
上記切換制御部は、上記顔位置検出部の検出結果に基づいて、上記音声に関する情報の表示位置を切り換えることを特徴とする請求項1に記載の表示装置。 - 上記表示装置は、さらに、音声の方向を検出する音声方向検出部を具備し、
上記切換制御部は、上記音声方向検出部の検出結果に基づいて、上記音声に関する情報の表示位置を切り換えることを特徴とする請求項1に記載の表示装置。 - 上記表示装置は、さらに、上記合成表示部の視野内に表示される音声に関する情報表示も含めて記録する記録部を具備することを特徴とする請求項1に記載の表示装置。
- 上記表示装置は、さらに通信部を具備し、
上記合成表示部の視野内に表示する音声に関する情報表示は、上記通信部を介して取得することを特徴とする請求項1に記載の表示装置。 - 上記表示装置は、さらに、
音声変化を判定する音声判定部と、
上記合成表示部内に顔が表示されているかを検出し、顔が表示されていた場合には、その顔の変化を判定する顔変化判定部と、
を具備し、
上記音声判定部によって判定された音声変化と、上記顔変化判定部によって判定された上記顔の変化のタイミングを比較し、上記音声の方向を特定することを特徴とする請求項1に記載の表示装置。 - 上記表示装置は、さらに、
上記合成表示部に表示している視野の外を含めて撮像する撮像部と、
上記撮像部によって撮像された画像に含まれる顔画像の変化を判定する顔判定部と、
音声を検出する音声検出部と、
を具備し、
上記切換制御部は、上記音声検出部と上記顔判定部の出力結果に基づいて、上記音声に関する情報の表示位置を切り換えることを特徴とする請求項1に記載の表示装置。 - 観察対象を撮像し画像信号を出力する撮像素子と、
音声を音声信号に変換する集音部と、
上記画像信号と上記音声信号に基づいて、上記音声に関する情報を上記観察対象の表示画像に重畳して表示するための表示制御部と、
を具備することを特徴とする表示装置。 - 上記表示制御部は、上記画像信号に基づいて顔の口の動きと、上記音声信号の音声変化が同期するか否かに応じて、発声している人物を判定し、上記音声に関する情報を表示することを特徴とする請求項8に記載の表示装置。
- 上記表示装置は、さらに、上記画像信号に基づいて上記観察対象を表示する表示部を有し、
上記集音部は、ステレオマイクを有し、上記音声の来る方向を判定可能であり、
上記表示制御部は、上記音声が上記表示部での視野範囲の外側か内側かを判定し、上記音声に関する情報を重畳して表示する位置を決定することを特徴とする請求項8に記載の表示装置。 - 上記表示装置は、さらに、上記画像信号に基づいて顔の位置を検出する顔検出部を有し、
上記表示制御部は、上記顔の位置に応じて、上記音声に関する情報を重畳して表示する位置を決定することを特徴とする請求項8に記載の表示装置。 - 上記表示装置は、光学的に上記観察対象を表示するための光学部と、上記光学部の光路中に上記音声に関する情報を表示するための表示部を有することを特徴とする請求項8に記載の表示装置。
- 上記光学部は光学的ズーミングが可能であり、
上記撮像素子は、固定の視野で上記観察対象を含む画像の画像データを出力することを特徴とする請求項8に記載の表示装置。 - 観察方向の視野の一部を表示する表示方法であって、
視野内外における音声方向の関係を判定し、
上記判定結果に基づいて、上記視野内に音声に関する情報の表示位置を切り換える、
ことを特徴とする表示方法。 - 観察対象を撮像し画像信号を出力し、
音声を音声信号に変換し、
上記画像信号と上記音声信号に基づいて、上記音声に関する情報を上記観察対象の表示画像に重畳して表示する、
ことを特徴とする表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008210369A JP2010048851A (ja) | 2008-08-19 | 2008-08-19 | 表示装置および表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008210369A JP2010048851A (ja) | 2008-08-19 | 2008-08-19 | 表示装置および表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010048851A true JP2010048851A (ja) | 2010-03-04 |
Family
ID=42066011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008210369A Pending JP2010048851A (ja) | 2008-08-19 | 2008-08-19 | 表示装置および表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010048851A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059121A (ja) * | 2010-09-10 | 2012-03-22 | Softbank Mobile Corp | 眼鏡型表示装置 |
JP2013141585A (ja) * | 2012-01-12 | 2013-07-22 | Furyu Kk | ゲーム機、ゲーム実行方法、プログラム、および記録媒体 |
WO2016075781A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
WO2016075780A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
WO2016075782A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
JP2016127463A (ja) * | 2015-01-06 | 2016-07-11 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム |
-
2008
- 2008-08-19 JP JP2008210369A patent/JP2010048851A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059121A (ja) * | 2010-09-10 | 2012-03-22 | Softbank Mobile Corp | 眼鏡型表示装置 |
JP2013141585A (ja) * | 2012-01-12 | 2013-07-22 | Furyu Kk | ゲーム機、ゲーム実行方法、プログラム、および記録媒体 |
WO2016075781A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
WO2016075780A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
WO2016075782A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
JPWO2016075782A1 (ja) * | 2014-11-12 | 2017-10-26 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
US10490101B2 (en) | 2014-11-12 | 2019-11-26 | Fujitsu Limited | Wearable device, display control method, and computer-readable recording medium |
JP2016127463A (ja) * | 2015-01-06 | 2016-07-11 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9792954B2 (en) | Information processing apparatus and recording medium | |
KR101753715B1 (ko) | 촬영장치 및 이를 이용한 촬영방법 | |
JP2010048851A (ja) | 表示装置および表示方法 | |
KR20060083883A (ko) | 카메라 제어 장치, 카메라 시스템, 전자 회의 시스템 및카메라 제어 방법 | |
JP2009141555A (ja) | 音声入力機能付き撮像装置及びその音声記録方法 | |
JP2007266793A (ja) | 画像加工装置 | |
JP5809891B2 (ja) | 撮影装置 | |
WO2011070764A1 (ja) | 画像撮影装置 | |
US11818454B2 (en) | Controller and control method | |
JP5930276B2 (ja) | 画像処理装置、画像処理方法、画像処理システム及びプログラム | |
JP5510559B2 (ja) | 音声制御装置および撮像装置 | |
JP2007052484A (ja) | 画像処理装置、画像処理方法及び画像処理用プログラム並びに情報記録媒体 | |
JP2009081530A (ja) | 撮像装置、及び撮影方法 | |
JP2010134507A (ja) | 再生装置 | |
JP5608803B1 (ja) | 撮影機器、撮影方法及び撮影制御プログラム | |
US11665391B2 (en) | Signal processing device and signal processing system | |
JP2019021966A (ja) | 収音装置および収音方法 | |
JP2010262072A (ja) | デジタルテレビ対応カラオケシステム | |
JP2009055448A (ja) | 撮影装置 | |
JP5325012B2 (ja) | 歌唱者画像撮影機能を有するカラオケシステム | |
JP4934871B2 (ja) | 撮影支援システム | |
JP2016036081A (ja) | 画像処理装置、方法及びプログラム並びに記録媒体 | |
JP2019096950A (ja) | 撮像装置、撮像方法及び撮像プログラム | |
JP2021039141A (ja) | カラオケ装置 | |
JP2013258540A (ja) | 電子機器 |