JP2010154259A - 画像音声処理装置 - Google Patents
画像音声処理装置 Download PDFInfo
- Publication number
- JP2010154259A JP2010154259A JP2008330529A JP2008330529A JP2010154259A JP 2010154259 A JP2010154259 A JP 2010154259A JP 2008330529 A JP2008330529 A JP 2008330529A JP 2008330529 A JP2008330529 A JP 2008330529A JP 2010154259 A JP2010154259 A JP 2010154259A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- subject
- image
- audio
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
- Studio Devices (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
【課題】断続的に音声を発生する音源についてもノイズを減衰させて良好な音声を得ると共に、音声を発した人間に応じて適切に文字表示を行う。
【解決手段】被写体までの距離及び方向を算出する物体位置検出部24bと、音源までの距離及び方向を算出する音声位置検出部12と、被写体までの距離及び方向と音源までの距離及び方向とに基づいて、被写体と音源とを同一の物体として関連付ける関連付け部40aと、関連付けられた被写体画像の追跡を行う追跡制御部40bと、追跡結果と被写体又は音源の距離及び方向とに基づいてマイクロフォンアレイ11の指向特性を調整する指向特性調整部13a,13bと、指向特性が調整されたマイクロフォンアレイ11により生成された音声データに基づいて音声を文字列に変換する音声認識部15a,15bと、変換された文字列を被写体画像に応じて画面に表示するための出力データを生成する出力制御部40dとを備える。
【選択図】図1
【解決手段】被写体までの距離及び方向を算出する物体位置検出部24bと、音源までの距離及び方向を算出する音声位置検出部12と、被写体までの距離及び方向と音源までの距離及び方向とに基づいて、被写体と音源とを同一の物体として関連付ける関連付け部40aと、関連付けられた被写体画像の追跡を行う追跡制御部40bと、追跡結果と被写体又は音源の距離及び方向とに基づいてマイクロフォンアレイ11の指向特性を調整する指向特性調整部13a,13bと、指向特性が調整されたマイクロフォンアレイ11により生成された音声データに基づいて音声を文字列に変換する音声認識部15a,15bと、変換された文字列を被写体画像に応じて画面に表示するための出力データを生成する出力制御部40dとを備える。
【選択図】図1
Description
本発明は、画像音声処理装置に関する。
一般的なビデオカメラでは、レンズで集光された光が撮像素子で電気信号へ変換され、カメラ処理された画像データと、マイクロフォンで電気信号に変換された音声データとをそれぞれ別の圧縮方式でデータ圧縮を行い、記録媒体に記録する。そして、再生時には、この記録媒体に記録された画像データ及び音声データを伸長し、テレビジョン装置等の出力装置に出力する。
特許文献1には、デジタルカメラにおいて、入力した音声に対して音声認識処理を施し、認識された音声を文字に変換し、この文字を静止画像に重畳して表示する画像処理装置が提案されている。
また、特許文献2には、画面内に表示された人物が発している音声内容を、利用者が確実にかつ容易に視認できるように、表示された人物の口の動きを検出し、この検出された口近傍に人物が発した音声を文字化して画面に表示する装置が提案されている。
さらに、特許文献3には、音声認識された音声をテロップ方式で表示することで、画像と文字により情報が重畳的に表示する表示装置が提案されている。
特開平11−55614号公報
特開平9−233442号公報
特開平11−41538号公報
しかしながら、特許文献1乃至特許文献3に記載の技術では、画面内に表示された複数の人物が交互に声を発した場合、声を発した人物にマイクロフォンの指向特性が調整されていないので、ノイズを減衰させて良好な音声を取得できず、利用者は録画のタイミングを逃してしまう場合があった。
また、特許文献3に記載の技術のように、検出された口近傍に人物が発した音声を文字化して画面に表示するのみでは、画面内の互いに近い位置に複数の人物が表示されている場合、利用者は、どの人物が音声を発したのか認識できなかった。
本発明は、上記課題に鑑みてなされたものであり、断続的に音声を発生する音源についてもノイズを減衰させて良好な音声を得ると共に、音声を発した人間に応じて適切に文字表示を行う画像音声処理装置を提供することを目的とする。
上記目的を達成するため、本発明に係る画像音声処理装置の第1の特徴は、音声を発した物体に応じて文字表示を行う画像音声処理装置において、光学系により被写体からの光を集光し、電気信号へ変換して画像データを生成する撮像部と、音源から発せられた音声を電気信号へ変換して音声データを生成する複数のマイクロフォンが所定間隔で配置されたマイクロフォンアレイと、前記撮像部により生成された画像データに基づいて、前記画像音声処理装置から前記被写体までの距離及び前記画像音声処理装置に対する前記被写体の方向を算出する物体位置検出部と、前記マイクロフォンアレイにより生成された音声データに基づいて、前記画像音声処理装置から前記音源までの距離及び前記画像音声処理装置に対する前記音源の方向を算出する音声位置検出部と、前記物体位置検出部により算出された前記被写体の距離及び方向と、前記音声位置検出部により算出された前記音源の距離及び方向とに基づいて、前記被写体と前記音源とを同一の物体として関連付ける関連付け部と、前記物体位置検出部により算出された前記被写体の距離及び方向、又は前記音声位置検出部により算出された前記音源の距離及び方向とに基づいて、前記マイクロフォンアレイの指向特性を調整する指向特性調整部と、前記指向特性調整部により指向特性が調整されたマイクロフォンアレイにより生成された音声データに基づいて音声を文字列に変換する音声認識部と、前記音声認識部により変換された文字列を前記被写体に応じて画面に表示するための出力データを出力部に生成させる出力制御部とを備える。
上記目的を達成するため、本発明に係る画像音声処理装置の第2の特徴は、前記画像データ上における前記関連付け部により関連付けられた物体に対応する前記被写体の追跡を行う追跡制御部と、を更に備え、前記指向特性調整部は、前記追跡制御部の追跡結果と、前記物体位置検出部により算出された前記被写体の距離及び方向、又は前記音声位置検出部により算出された前記音源の距離及び方向とに基づいて、前記マイクロフォンアレイの指向特性を調整することにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第3の特徴は、前記撮像部により生成された画像データから被写体の特徴情報を検出する物体検出部と、人間の特徴情報と、この人間の特徴情報に基づいて分類された人間分類とを関連付けて、人間分類情報として記憶する人間分類情報記憶部と、前記人間分類情報に基づいて、前記物体検出部により検出された被写体の特徴情報に対応する人間分類を抽出する物体認識部と、前記音声認識部により変換された文字列を、前記物体認識部により抽出された人間分類に応じた言語から予め設定された母国語へ翻訳する翻訳部と、を更に備え、前記出力制御部は、前記物体検出部により検出した前記画面上の被写体画像に応じて、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させることにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第4の特徴は、前記出力制御部は、前記物体検出部により検出した前記画面上の被写体画像の近傍に、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させることにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第5の特徴は、前記出力制御部は、前記撮像部により生成された画像データの被写体の大きさに基づいて、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させることにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第6の特徴は、前記出力制御部は、前記撮像部により生成された画像データにおける被写体の向きに基づいて、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させることにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第7の特徴は、前記出力制御部は、前記撮像部により生成された画像データにおける被写体の種類に基づいて、前記翻訳部により変換された文字列の色又はフォントのうちの少なくともいずれか一方を決定し、この決定した色又はフォントで前記変換された文字列を画面に表示するための出力データを前記出力部に生成させることにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第8の特徴は、前記出力制御部は、前記物体認識部により、前記被写体が人間であると判定された場合に、前記画面上の人間の口元近傍の位置に、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させることにある。
上記目的を達成するため、本発明に係る画像音声処理装置の第9の特徴は、前記出力制御部は、前記物体認識部により、前記被写体が人間であると判定された場合に、前記人間の頭部の角度に応じて、前記翻訳部により変換された文字列を傾けて画面に表示するための出力データを前記出力部に生成させることにある。
本発明の画像音声処理装置によれば、断続的に音声を発生する音源についてもノイズを減衰させて良好な音声を得ると共に、音声を発した人間に応じて適切に文字表示を行うことができる。
以下、本発明の実施の形態について図面を参照して説明する。
本発明の一実施形態では、断続的に音声を発生する音源についてもノイズを減衰させて良好な音声を得ると共に、音声を発した人間に応じて適切に文字表示を行う画像音声処理装置を例に挙げて説明する。
<画像音声処理装置の構成>
図1は、本発明の一実施形態である画像音声処理装置の構成を示した構成図である。
図1は、本発明の一実施形態である画像音声処理装置の構成を示した構成図である。
本発明の一実施形態である画像音声処理装置1は、マイクロフォンアレイ11と、音声位置検出部12と、第1の指向特性調整部13aと、第2の指向特性調整部13bと、第1の音声検出部14aと、第2の音声検出部14bと、第1の音声認識部15aと、第2の音声認識部15bと、辞書記憶部16と、第1の翻訳部17aと、第2の翻訳部17bと、音声圧縮部18と、記録音声生成部19と、撮像部を有するカメラ21及びカメラ処理部22と、動きセンサ23と、操作部41と、方角センサ42と、検出部24と、動きベクトル検出部25と、動画圧縮部26と、文字合成部27と、人間分類情報記憶部31と、画像基準特徴情報記憶部32と、指向特性優先度記憶部34と、CPU40と、記録部43と、音声出力部44と、表示部45とを備えている。
マイクロフォンアレイ11は、それぞれ例えば10mm程度の所定間隔で配置される第1のマイクロフォン11aと、第2のマイクロフォン11bと、第3のマイクロフォン11cとを備えており、音源から発せられた音声を電気信号へ変換して音声データを生成する。
音声位置検出部12は、マイクロフォンアレイ11により生成された音声データに基づいて、画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向を算出する。
第1の指向特性調整部13aは、後述するCPU40の追跡制御部40bの追跡結果と、後述する検出部24の物体位置検出部24bにより算出された被写体の距離及び方向、又は音声位置検出部12により算出された音源の距離及び方向とに基づいて、第1のマイクロフォン11aと、第2のマイクロフォン11bと、第3のマイクロフォン11cに到達した音声の時間差をなくすように、それぞれのマイクロフォンにより生成された音声データを重ね合わせることにより指向特性を調整する。
第2の指向特性調整部13bは、第1の指向特性調整部13aと同一構成を有する。
第1の音声検出部14aは、第1の指向特性調整部13aにより指向特性が調整された音声データから音声の特徴情報を抽出する。具体的には、第1の音声検出部14aは、指向特性が調整された音声から、音量や音色情報等を抽出し、これらを音声の特徴情報として、CPU40へ供給する。
第2の音声検出部14bは、第1の音声検出部14aと同一構成を有する。
第1の音声認識部15aは、第1の指向特性調整部13aにより指向特性が調整されたマイクロフォンアレイ11により生成された音声データに基づいて音声を文字列に変換する。具体的には、第1の音声認識部15aは、後述する物体認識部24cにより特定された被写体の種類と、後述する辞書記憶部16に記憶された被写体の種類毎の辞書データに基づいて、マイクロフォンアレイ11により生成された音声データに基づいて音声を文字列に変換する。
第2の音声認識部15bは、第1の音声認識部15aと同一構成を有する。
辞書記憶部16は、例えば、犬、猫、自動車、人間等のような被写体の種類毎に、それぞれ辞書データを記憶している。
第1の翻訳部17aは、第1の音声認識部15aにより変換された文字列を物体認識部24cにより抽出された人間分類に応じた言語から、後述する操作部41の入力操作により設定された母国語に翻訳する。
第2の翻訳部17bは、第1の翻訳部17aと同一構成を有する。
音声圧縮部18は、後述する記録音声生成部19により生成された記録音声データを、所定の圧縮方式で圧縮し、圧縮された記録音声データを後述する記録部43に記録させる。
記録音声生成部19は、マイクロフォンアレイ11から供給される音声データと、第1の指向特性調整部13a及び第2の指向特性調整部13bから供給される音声データとを合成し、後述する記録部43に記録されるのに必要な音声チャンネル数(例えば、ステレオ録音する場合、2チャンネル)に変換する。具体的には、記録音声生成部19は、音量と、後述する物体認識部24cにより顔認識された被写体画像の口元の動きとに基づいて、音源である人間が音声を発している場合には、第1の指向特性調整部13a及び第2の指向特性調整部13bから供給される音声データを記録し、音源である人間が音声を発していない場合には、マイクロフォンアレイ11から供給される音声データを記録するようにそれぞれの音声データを合成して出力データを生成し、音声圧縮部18及び音声出力部44へ供給する。これにより、周囲雑音がある場合にも、音源である人間が発した音声を明瞭に記録又は音声出力することができる。
カメラ21は、ズームレンズ21aと撮像素子21bとを備えている。後述する操作部41からの供給された操作信号により設定されたズーム倍率に基づいて、ズームレンズ21aが画角を調整し、ズームレンズ21aは、図示しない光学系により被写体からの光を集光し、撮像素子21bが集光された光を電気信号へ変換する。
カメラ処理部22は、カメラ21から供給された電気信号をRGB信号輝度信号Y及び色差信号Cr,Cb信号等の画像データに変換する。
動きセンサ23は、例えばジャイロセンサ等を備え、画像音声処理装置1の動きを検出し、CPU40及び検出部24へ供給する。
検出部24は、物体検出部24aと、物体位置検出部24bと、物体認識部24cとを備える。
物体検出部24aは、カメラ処理部22により生成された画像データから被写体画像の特徴情報を検出する。例えば、物体検出部24aは、画像データから被写体画像の形及び色を特徴情報として検出する。また、物体検出部24aは、後述する物体認識部24cにより被写体の種類が“人間”であると判定された場合、物体検出部24aは、被写体の特徴情報として、更に、肌の色、瞳の色、輪郭、髪の毛の色、及び衣装を検出する。
物体位置検出部24bは、カメラ処理部22により生成された画像データに基づいて、画像音声処理装置1から画像データの被写体までの距離及び画像音声処理装置1に対する被写体の方向を算出する。
物体認識部24cは、被写体画像の認識を行う。具体的には、物体認識部24cは、物体検出部24aにより抽出された形及び色と画像基準特徴情報記憶部32に記憶された画像基準特徴情報とに基づいて、被写体の種類を特定する。そして、この特定した被写体の種類が“人間”である場合、物体認識部24cは、後述する人間分類情報記憶部31に記憶された人間分類情報に基づいて、物体位置検出部24bにより検出された被写体画像の特徴情報に対応する人間分類を抽出する。さらに、物体認識部24cは、特定した被写体の種類が“人間”である場合、顔認識を行う。
動きベクトル検出部25は、カメラ処理部22により生成された画像データの動きを検出し、CPU40及び検出部24へ供給する。
動画圧縮部26は、カメラ処理部22により生成された画像データを、所定の圧縮方式で圧縮し、圧縮された画像データを後述する記録部43に供給する。
文字合成部27は、後述するCPU40の出力制御部40dの指示に従い、カメラ処理部22により生成された画像データに文字列を重ね合わせて、表示部45に表示させる。
人間分類情報記憶部31は、人間の特徴情報と、この特徴情報に基づいて分類された人間分類とを関連付けて、人間分類情報として記憶する。
図2は、本発明の一実施形態である画像音声処理装置1が備える人間分類情報記憶部31に記憶された人間分類情報の一例を示した図である。
図2に示すように、カラム名“人間分類”(符号51)と、カラム名“肌の色”(符号52)と、カラム名“瞳の色”(符号53)と、カラム名“輪郭”(符号54)と、カラム名“髪の毛の色”(符号55)と、カラム名“衣装の特徴”(符号56)とが関連付けられて人間分類情報として記憶されている。
画像基準特徴情報記憶部32は、被写体の種類と、画像基準特徴情報とを関連付けて記憶する。
図3は、本発明の一実施形態である画像音声処理装置1が備える画像基準特徴情報記憶部32に記憶された画像基準特徴情報の一例を示した図である。
図3に示すように、カラム名“種類”(符号61)と、カラム名“画像基準特徴情報”(符号62)とが関連付けられて記憶されている。画像基準特徴情報62には、カラム名“形”(符号62a)と、カラム名“色”(符号62b)と、カラム名“基準寸法”(符号62c)とが含まれる。
指向特性優先度記憶部34は、後述する操作部41から供給された被写体及び音源の種類の優先順位が記憶されている。なお、後述するCPU40は、操作部41での優先順位が指定されるまでは、指向特性優先度記憶部34に予め記憶されている所定の優先順位に従って、処理を行う。
CPU40は、画像音声処理装置1の中枢的な制御を行う。また、CPU40は、その機能上、関連付け部40aと、追跡制御部40bと、指向調整制御部40cと、出力制御部40dとを備える。
関連付け部40aは、物体位置検出部24bにより算出された被写体の距離及び方向と、音声位置検出部12により算出された音源の距離及び方向とに基づいて、被写体と音源とを同一の物体として関連付ける。
追跡制御部40bは、画像データに基づいて表示部45に表示された画像を複数のブロックに分割し、ブロック毎の動きを検出することにより、画像データ上における関連付け部40aにより関連付けられた物体に対応する被写体の動きを追跡する。
指向調整制御部40cは、追跡制御部40bの追跡結果と、物体位置検出部24bにより算出された被写体の距離及び方向、又は音声位置検出部12により算出された音源の距離及び方向とに基づいて、第1の指向特性調整部13a又は第2の指向特性調整部13bに指向特性を調整させる。
出力制御部40dは、第1の音声認識部15a又は第2の音声認識部15bにより変換された文字列を被写体画像に応じて画面に表示するための出力データを、記録部43又は文字合成部27に生成させる。
操作部41は、利用者の操作に基づいて、撮影の開始や終了を要求する操作信号等各種操作信号や、第1の翻訳部17a又は第2の翻訳部17bが翻訳する母国語を設定するための操作信号を生成し、生成した操作信号をCPU40へ供給する。
方角センサ42は、画像音声処理装置1が向いている方角を検出し、検出した方角データをCPU40及び検出部24へ供給する。
記録部43は、CPU40の出力制御部40dの指示に従い、音声圧縮部18から供給される記録音声データと、動画圧縮部26から供給される動画データと、CPU40から供給される文字列とを同期させて記録する。
音声出力部44は、スピーカ等の音声出力装置とを備え、記録音声生成部19から供給された記録音声データに基づいて、音声を出力する。
表示部45は、有機EL(electroluminescence)ディスプレイや、液晶ディスプレイ等の画像出力装置を備え、文字合成部27から供給された画像データに基づいて、画像を表示する。
<画像音声処理装置1の作用>
次に、本発明の一実施形態である画像音声処理装置1の作用について説明する。
次に、本発明の一実施形態である画像音声処理装置1の作用について説明する。
図4は、本発明の一実施形態である画像音声処理装置1の処理フローを示したフローチャートである。
まず、画像音声処理装置1のカメラ処理部22は、カメラ21から電気信号が供給されると(ステップS101)、供給された電気信号をRGB信号輝度信号Y、及び色差信号Cr,Cb信号等に変換して画像データを生成する。
次に、物体位置検出部24bは、動きセンサ23により検出された画像音声処理装置1の動き及び方角センサ42により検出された画像音声処理装置1の方角に基づいて、振れを補正する(ステップS102)。例えば、物体位置検出部24bは、動きセンサ23により検出された画像音声処理装置1の動きを打ち消すように、カメラ処理部22から供給された画像データから切り出す画像データの範囲を選択し、この選択された画像データを物体検出部24aへ供給する。
そして、物体検出部24aは、振れを補正した画像データから被写体画像の特徴情報を検出する(ステップS103)。例えば、物体検出部24aは、画像データから被写体画像の形及び色を、被写体画像の特徴情報として検出する。
次に、物体認識部24cは、被写体画像の認識を行う(ステップS104)。具体的には、物体認識部24cは、物体検出部24aにより抽出された形及び色と画像基準特徴情報記憶部32に記憶された画像基準特徴情報とに基づいて、被写体の種類を特定する。そして、この特定した被写体の種類が“人間”である場合、物体認識部24cは、人間分類情報記憶部31に記憶された人間分類情報に基づいて、ステップS103において検出された被写体画像の特徴情報対応する人間分類を抽出する。
図5は、本発明の一実施形態である画像音声処理装置1が備える物体検出部24a及び物体認識部24cによる処理を説明した図である。
図5に示すように、カメラ21により撮像された画面には、被写体A及び被写体Bが写っているので、物体認識部24cは、被写体A及び被写体Bの種類として“人間”を抽出し、物体検出部24aは、被写体A及び被写体Bの特徴情報として、さらに、肌の色、瞳の色、輪郭、髪の毛の色、及び衣装を検出する。
そして、物体認識部24cは、人間分類情報記憶部31に記憶された人間分類情報に基づいて、検出された肌の色、瞳の色、輪郭、髪の毛の色、及び衣装に対応する人間分類を抽出する。
次に、物体位置検出部24bは、振れを補正した画像データに基づいて、画像音声処理装置1から被写体までの距離及び画像音声処理装置1に対する被写体の方向を算出する(ステップS105)。例えば、物体位置検出部24bは、カメラ21のズームレンズ21aに設定されたズーム倍率で定められる画角及び被写体までの焦点情報に基づいて、画像音声処理装置1から画像データの被写体までの距離及び画像音声処理装置1に対する被写体の方向を算出する。
図6は、本発明の一実施形態である画像音声処理装置1が備える物体位置検出部24bによる被写体の方向の算出処理を説明した図である。
図6に示すように、カメラ21により撮像された画面に、図6に示した被写体Aと被写体Bとが写っている。カメラ21の画角が±Φであるとすると、物体位置検出部24bは、画像音声処理装置1を上方から見たx−y平面において、物体検出部24aにより検出された被写体Aが+θ3方向にある、即ち、+θ3方向の直線201上に被写体Aが存在すると判定する。
そして、物体位置検出部24bは、振れを補正した画像データに基づいて、画像音声処理装置1から被写体までの距離を算出する。
図7は、本発明の一実施形態である画像音声処理装置1が備える物体位置検出部24bによる被写体の距離の算出処理を説明した図である。
カメラ21のフォーカスの範囲内に被写体A又はBがある場合、物体位置検出部24bは、フォーカスの焦点情報から距離を算出する。
図7に示すように、被写体Aがフォーカスの範囲内にある場合、物体位置検出部24bは、フォーカスの焦点情報からカメラ21と被写体Aとの間の距離d1を算出する。
また、カメラ21のフォーカスの範囲外に被写体A又はBがある場合、物体位置検出部24bは、画像基準特徴情報記憶部32に記憶された画像基準特徴情報に基づいて、画像データの被写体画像の特徴情報に対応する被写体の基準寸法を抽出し、この抽出された被写体の基準寸法及びカメラ21における画角に基づいて、カメラ21から画像データの被写体までの距離を算出する。
例えば、図7に示す被写体Bがフォーカスの範囲外にある場合、物体位置検出部24bは、画像基準特徴情報記憶部32に記憶された画像基準特徴情報からステップS104において特定された被写体の種類に対応する基準寸法L2を抽出する。
そして、物体位置検出部24bは、図5に示す画面の高さをHc、被写体Bの顔の縦方向の長さH2、画角をθcとすると、下記の数式1を用いて、被写体Bの角度θ2を算出する。
θ2=θc×H2/Hc ・・・(数式1)
次に、物体位置検出部24bは、抽出された基準寸法L2と、算出された角度θ2とから、下記の数式2を用いて距離d2を算出する。
次に、物体位置検出部24bは、抽出された基準寸法L2と、算出された角度θ2とから、下記の数式2を用いて距離d2を算出する。
d2=L2/tanθ2 ・・・(数式2)
これにより、物体位置検出部24bは、振れを補正した画像データに基づいて、画像音声処理装置1から被写体までの距離及び画像音声処理装置1に対する被写体の方向を算出することができる。
これにより、物体位置検出部24bは、振れを補正した画像データに基づいて、画像音声処理装置1から被写体までの距離及び画像音声処理装置1に対する被写体の方向を算出することができる。
次に、音声位置検出部12は、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cから音声データが供給されると(ステップS106)、動きセンサ23により検出された画像音声処理装置1の動き及び方角センサ42により検出された画像音声処理装置1に基づいて、振れを補正する(ステップS107)。
図4に示すように、次に、音声位置検出部12は、補正された音声データに基づいて、画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向を算出する(ステップS108)。
図8は、本発明の一実施形態である画像音声処理装置1が備える音声位置検出部12による音源の方向及び距離の算出処理を説明した図である。
図8に示すように、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cは、それぞれ所定の距離を離して配置されているので、音源Aが発声した音声は、それぞれの入力までの遅延時間が異なる。
具体的には、図8に示すように、音源Aから音声が発せられてから第1のマイクロフォン11aに到達するまでの時間をt0とすると、音源Aから音声が発せられてから第2のマイクロフォン11bに到達するまでの時間は、(t0+t1)、音源Aから音声が発せられてから第3のマイクロフォン11cに到達するまでの時間は、(t0+t2)となる。
そこで、音声位置検出部12は、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cに入力された音声の位相を比較することにより、マイクロフォンに入力される音声の遅延時間t1,t2を算出し、この算出された遅延時間t1,t2に基づいて、画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向を算出する。
図9は、本発明の一実施形態である画像音声処理装置1が備える第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cに入力された音声波形の位相比較の一例を示した図である。
図9に示すように、T10時点において、音源Aから発せられてから第1のマイクロフォン11aに到達した音声がピークを有しているので、音声位置検出部12は、このピーク時であるT10を基準とする。そして、音声位置検出部12は、T10から、第2のマイクロフォン11bに到達した音声波形において同様のピーク波形が到達した時刻T11までの時間を遅延時間t1とする。また、音声位置検出部12は、T10から、第3のマイクロフォン11cに到達した音声波形において同様のピーク波形が到達した時刻T12までの時間を遅延時間t2とする。
そして、音声位置検出部12は、この算出された遅延時間t1,t2に基づいて、画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向を算出する。具体的には、音速をvとすると、音声位置検出部12は、音源Aから第1のマイクロフォン11aまでの距離はv・t0、音源Aから第2のマイクロフォン11bまでの距離はv・(t0+t1)、音源Aから第3のマイクロフォン11cまでの距離はv・(t0+t2)となる。そして、音声位置検出部12は、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cからそれぞれv・t0、v・(t0+t1)、及びv・(t0+t2)だけ離れた地点、即ち、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cを中心とて、それぞれ中心からの半径をv・t0、v・(t0+t1)、及びv・(t0+t2)として円を描いたときに、互いに重なり合う地点が音源Aのある地点として定める。
これにより、音声位置検出部12は、補正された音声データに基づいて、画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向を算出することができる。
なお、例えば音源A及び音源Bが同時に音声を発した場合、音声位置検出部12は、例えば、特開2006−227328号公報に記載の技術を用いて、音声識別装置1から音源までの距離及び音声識別装置1に対する音源の方向を算出する。具体的には、音声位置検出部12は、帯域分割して得られる帯域分割信号が複数の音源が重複している信号であるか一つの音源だけからなる信号であるかを判定し、音源が重複していない周波数成分のみを用いて音源方向を算出する。
次に、CPU40の関連付け部40aは、ステップS104において算出された画像音声処理装置1から被写体までの距離及び画像音声処理装置1に対する被写体の方向と、ステップS108において算出された画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向とに基づいて、音源と被写体との関連付けか可能か否かを判定する(ステップS109)。
例えば、関連付け部40aは、ステップS105において算出された画像音声処理装置1から被写体までの距離及び画像音声処理装置1に対する被写体の方向により特定される位置の所定の周辺範囲と、ステップS108において算出された画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向により特定される位置の所定の周辺範囲とにおいて重なり合う部分がある場合、この被写体と音源は同一の物体として関連付けが可能であると判定する。
ステップS109において、音源と被写体との関連付けか可能と判定された場合、関連付け部40aは、ステップS105において算出された画像音声処理装置1から被写体までの距離及び画像音声処理装置1に対する被写体の方向と、ステップS108において算出された画像音声処理装置1から音源までの距離及び画像音声処理装置1に対する音源の方向とを関連付ける(ステップS110)。
次に、CPU40の追跡制御部40bは、画像データに基づいて表示部45に表示された画像を複数のブロックに分割し、ブロック毎の動きを検出することにより被写体の動きを追跡する(ステップS111)。
具体的には、追跡制御部40bは、画像データに基づいて表示された画面を複数のブロックに分割し、動きベクトル検出部25により検出されたブロック毎の動きベクトルに基づいて、被写体に動きがあるかを検出する。なお、動きベクトルの検出は、輝度信号でも良いし色信号でも良い。
また、追跡制御部40bは、画面内に動く物体が無い場合にも、画面の中全てを常に画像認識して、輪郭や色などから被写体を推定する。その被写体に対して、特徴情報に基づいて画像認識を行い、これまで検出していた被写体との比較を行う。この被写体がこれまでの被写体の特徴情報と比較して違いが所定の値より少ない場合には同じ物体と判断する。これにより、追跡制御部40bは、画面内でその被写体を追跡することができる。
そして、CPU40の指向調整制御部40cの指示により、第1の指向特性調整部13a又は第2の指向特性調整部13bは、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cに到達した音声の時間差をなくすように、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cにより生成された音声データを重ね合わせることにより指向特性を調整する(ステップS112)。この指向特性調整処理については、後述する。
次に、音声位置検出部12は、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cから音声データが供給されると(ステップS113)、動きセンサ23により検出された画像音声処理装置1の動きに基づいて、振れを補正する(ステップS114)。
次に、第1の音声検出部14a又は第2の音声検出部14bは、第1の指向特性調整部13a又は第2の指向特性調整部13bからそれぞれ供給された振れが補正された音声の特徴情報を検出する(ステップS115)。例えば、第1の音声検出部14aは、振れが補正された音声データから、音声の特徴情報として音量や音色情報等を抽出する。
そして、第1の音声認識部15a又は第2の音声認識部15bは、それぞれ第1の指向特性調整部13a又は第2の指向特性調整部13bによりそれぞれ指向特性が調整されたマイクロフォンアレイ11により生成された音声データに基づいて、音声を文字列に変換する(ステップS116)。具体的には、第1の音声認識部15a又は第2の音声認識部15bは、ステップS104において特定された被写体の種類と、辞書記憶部16に記憶された被写体の種類毎の辞書データに基づいて、マイクロフォンアレイ11により生成された音声データに基づいて音声を文字列に変換する。例えば、ステップS104において特定された被写体の種類が“犬”である場合、辞書記憶部16に記憶された犬用の辞書データを用いて、マイクロフォンアレイ11により生成された音声データに基づいて音声を文字列に変換する。このように、被写体の種類毎に記憶された辞書データに基づいて音声を文字列に変換するので、より高い精度で文字列に変換することができる。
次に、第1の翻訳部17a又は第2の翻訳部17bは、第1の音声認識部15a又は第2の音声認識部15bによりそれぞれ変換された文字列を物体認識部24cにより抽出された人間分類に応じた言語から、予め操作部41の操作に基づいて設定された母国語へ翻訳する(ステップS117)。具体的には、物体認識部24cにより抽出された人間分類が、“黄色人種”であった場合、第1の翻訳部17a又は第2の翻訳部17bは、言語の候補として日本語、中国語、及び韓国語等のアジア圏で用いられる言語を表示部45に一覧表示させる。そして、利用者の選択操作により、操作部41から表示された言語の候補からいずれか1つの言語が選択される選択信号が供給された場合、第1の翻訳部17a又は第2の翻訳部17bは、第1の音声認識部15a又は第2の音声認識部15bにより変換された文字列をこの選択された言語から、予め操作部41の操作に基づいて設定された母国語へ翻訳する。
このとき、利用者が言語の選択操作を行わない場合、第1の翻訳部17a又は第2の翻訳部17bは、入力された音声から最も適した言語を推測して、その推測した母国語へ変換を行う。
次に、第1の翻訳部17a又は第2の翻訳部17bは、ステップS117において翻訳した文字列を文節に区切る(ステップS118)。
そして、出力制御部40dは、ステップS111において追跡制御部40bにより追跡された被写体画像が、画面の範囲内か否かを判定する(ステップS119)。
ステップS119において、被写体画像が画面の範囲外であると判定された場合(NOの場合)、出力制御部40dは、音声位置検出部12により検出された画像音声処理装置1に対する音源の方向に基づいて、画面端にステップS118において区切られた文節毎に文字列を表示する(ステップS120)。
図10は、本発明の一実施形態である画像音声処理装置1が備える出力制御部40dが文字列を画面端に表示した場合における画面の一例を示している。
図10に示すように、出力制御部40dは、被写体画像が画面の範囲外であると判定された場合、画面四辺のうち、音声位置検出部12により検出された画像音声処理装置1に対する音源の方向に最も近い辺に沿うように、画面401の画面端にステップS118において区切られた文節毎に文字列402を表示する。
一方、ステップS119において、被写体画像が画面の範囲内であると判定された場合(YESの場合)、出力制御部40dは、ステップS111において追跡した被写体画像の頭部の傾きを算出する(ステップS121)。
次に、出力制御部40dは、被写体に応じてステップS118において区切られた文節毎に文字列を重ね合わせて表示させるための出力データを文字合成部27又は記録部43に生成させることにより、文字合成部27が、出力データに基づいて表示部45に画面を表示し、又は記録部43が出力データを記録する(ステップS122)。
図11は、本発明の一実施形態である画像音声処理装置1が備える文字合成部27が、出力データに基づいて表示部45に表示した画面の一例を示している。(a),(b)は、画面内の被写体画像が比較的大きい場合において文字列を表示した画面の一例を示し、(c),(d)は、画面内の被写体画像が比較的小さい場合において文字列を表示した画面の一例を示している。
図11(a)に示すように、例えば、比較的文字列の数が多い場合、出力制御部40dは、画面内の被写体画像A2の横幅L3を基準として、予め定められた表示する文字列の文字数を越えないように、文字列403を改行して表示させる。図11(c)に示した場合も同様に、出力制御部40dは、画面内の被写体画像A2,A3の横幅L3,L4を基準として、予め定められた表示する文字列の文字数を越えないように、文字列403を改行して表示させる。
また、図11(b)に示すように、例えば、比較的文字列の数が少ない場合、出力制御部40dは、画面内の被写体画像A2の横幅L3を基準として、文字列404を被写体画像の横幅L4以下となる最大のフォントサイズで表示させる。図11(d)に示す場合も同様に、出力制御部40dは、画面内の被写体画像A3の横幅L4を基準として、文字列404を被写体画像の横幅L4以下となる最大のフォントサイズで表示させる。
さらに、出力制御部40dは、被写体画像の向きに応じてステップS118において区切られた文節毎に文字列を表示する。
図12は、本発明の一実施形態である画像音声処理装置1が備える出力制御部40dが文字列を画面に表示させた場合における画面の一例を示している。(a)は、画面内の被写体画像が正面を向いている場合において文字列を表示した画面の一例を示し、(b)は、画面内の被写体画像が背面を向いている場合において文字列を表示した画面の一例を示し、(c)は、画面内の被写体画像が画面向かって横方向を向いている場合において文字列を表示した画面の一例を示し、(d)は、画面内の被写体画像が画面向かって斜め下方向を向いている場合において文字列を表示した画面の一例を示している。
図12(a)に示すように、例えば、物体認識部24cにより画面内の被写体画像A4が正面を向いていると判定された場合、出力制御部40dは、画面内の被写体画像A4の下方向に文字列405を表示する。
図12(b)に示すように、例えば、物体認識部24cにより画面内の被写体画像A5が背面を向いていると判定された場合、出力制御部40dは、画面内の被写体画像A5上に重なり合うように文字列405を表示する。
図12(c)に示すように、例えば、物体認識部24cにより画面内の被写体画像A6が向かって横方向を向いていると判定された場合、出力制御部40dは、画面内の被写体画像A6の口元近傍の位置に文字列405を表示する。
図12(d)に示すように、例えば、物体認識部24cにより画面内の被写体画像A7が向かって斜め下方向を向いていると判定された場合、出力制御部40dは、画面内の被写体画像A7の口元近傍の位置であり、かつステップS121において算出された被写体画像の頭部の傾きに応じて文字列405を傾けて表示する。
図13(a),(b)は、本発明の一実施形態である画像音声処理装置1が備える出力制御部40dが文字列の斜め表示を説明した図である。
図13(a)に示すように、物体認識部24cは、追跡制御部40bにより追跡された被写体画像A7に基づいて顔検出を行うことで、顔検出枠501と口位置検出枠502を定める。
そして、出力制御部40dは、顔検出された顔検出枠501の角度を、被写体画像A7の頭部の傾きを回転角度rとして算出する。
図13(b)に示すように、出力制御部40dは、顔検出枠501が傾いている方向に文字列503を回転角度rだけ回転させて文字列503Aを得る。そして、出力制御部40dは、被写体画像A7の口元近傍の位置に、回転角度rだけ回転させた文字列503Aを重ね合わせる。
また、出力制御部40dは、ステップS104において物体認識部24cにより特定された被写体の種類に基づいて、第1の翻訳部17a及び第2の翻訳部17bにより変換された文字列の色及び/又はフォントを決定し、この決定した色及び/又はフォントで変換された文字列を画面に表示するための出力データを生成するようにしてもよい。
次に、出力制御部40dは、文節に区切った文字列の表示が終了したか否かを判定し(ステップS123)、文字列の表示が終了したと判定した場合、CPU40は、操作部41から撮影終了を要求する操作信号が供給されたか否かを判定し(ステップS124)、撮影終了を要求する操作信号が供給されたと判定した場合(YESの場合)、処理を終了する。
<指向特性調整処理>
次に、本発明の一実施形態である画像音声処理装置1における指向特性調整処理について説明する。
次に、本発明の一実施形態である画像音声処理装置1における指向特性調整処理について説明する。
図14は、本発明の一実施形態である画像音声処理装置1における指向特性調整処理の処理フローを示したフローチャートである。
図14に示すように、CPU40の指向調整制御部40cは、第1の指向特性調整部13a及び第2の指向特性調整部13bのうち、少なくともいずれか一方が使用可能か否かを判定する(ステップS201)。具体的には、CPU40は、指向特性調整を行っていない第1の指向特性調整部13a又は第2の指向特性調整部13bがあるか否かを判定する。
ステップS201において、いずれも使用不可、即ち第1の指向特性調整部13a及び第2の指向特性調整部13bのいずれも指向特性調整を行っていると判定された場合(NOの場合)、指向調整制御部40cは、指向特性優先度記憶部34に記憶された指向特性優先度を抽出する(ステップS202)。具体的には、指向調整制御部40cは、指向特性優先度記憶部34から、ステップS111において動きを追跡している被写体の種類と、第1の指向特性調整部13a及び第2の指向特性調整部13bにより指向特性調整されている被写体の種類とに対応する指向特性優先度を抽出する。
次に、指向調整制御部40cは、ステップS113において動きを追跡している被写体の指向特性優先度が、第1の指向特性調整部13a又は第2の指向特性調整部13bにより指向特性調整されている被写体の指向特性優先度より高いか否かを判定する(ステップS203)。
ステップS203において、ステップS113において動きを追跡している被写体の指向特性優先度が、第1の指向特性調整部13a又は第2の指向特性調整部13bにより指向特性調整されている被写体の指向特性優先度より高いと判定された場合(YESの場合)、指向調整制御部40cの指示に基づいて、第1の指向特性調整部13a又は第2の指向特性調整部13bが指向調整を行う(ステップS204)。具体的には、第1の指向特性調整部13a又は第2の指向特性調整部13bは、追跡制御部40bの追跡結果に基づいて、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cに到達した音声の時間差をなくすように、第1のマイクロフォン11a、第2のマイクロフォン11b、及び第3のマイクロフォン11cにより生成された音声データを重ね合わせることにより指向特性を調整する。
以上のように、本発明の一実施形態である画像音声処理装置1によれば、被写体の距離及び方向と、音源の距離及び方向とに基づいて、被写体と音源とを同一の物体として関連付け、追跡制御部40bが関連付けられた物体の追跡を行い、第1の指向特性調整部13a及び第2の指向特性調整部13bが、追跡制御部40bの追跡結果と、被写体の距離及び方向又は音源の距離及び方向とに基づいて、マイクロフォンアレイ11の指向特性を調整するので、音源がカメラ21の画角外に出た場合や、音源が断続的に音声を発生する場合であっても、その都度、音声位置検出部12及び物体位置検出部24bが物体の位置を算出し直すことなく、マイクロフォンアレイ11の指向特性を調整することでノイズを減衰させて良好な音声を得ることができる。
また、本発明の一実施形態である画像音声処理装置1によれば、第1の音声認識部15a又は第2の音声認識部15bにより変換された文字列を被写体画像に応じて画面に表示するので、音声を発した人間に応じて適切に文字表示を行うことができる。
なお、本発明の一実施形態である画像音声処理装置1では、2つの指向特性調整部(第1の指向特性調整部13a及び第2の指向特性調整部13b)と、2つの音声検出部(第1の音声検出部14a及び第2の音声検出部14b)とを備える構成としたが、これに限らず、多数の指向特性調整部と、多数の音声検出部とを備える構成としてもよい。
1…画像音声処理装置
11…マイクロフォンアレイ
11a…第1のマイクロフォン
11b…第2のマイクロフォン
11c…第3のマイクロフォン
12…音声位置検出部
13a…第1の指向特性調整部
13b…第2の指向特性調整部
14a…第1の音声検出部
14b…第2の音声検出部
15a…第1の音声認識部
15b…第2の音声認識部
16…辞書記憶部
17a…第1の翻訳部
17b…第2の翻訳部
18…音声圧縮部
19…記録音声生成部
21…カメラ
22…カメラ処理部
23…動きセンサ
24…検出部
24a…物体検出部
24b…物体位置検出部
24c…物体認識部
25…動きベクトル検出部
26…動画圧縮部
27…文字合成部
31…人間分類情報記憶部
32…画像基準特徴情報記憶部
33…音声基準特徴情報記憶部
34…指向特性優先度記憶部
40…CPU
40a…関連付け部
40b…追跡制御部
40c…指向調整制御部
40d…出力制御部
41…操作部
42…方角センサ
43…記録部
44…音声出力部
45…表示部
11…マイクロフォンアレイ
11a…第1のマイクロフォン
11b…第2のマイクロフォン
11c…第3のマイクロフォン
12…音声位置検出部
13a…第1の指向特性調整部
13b…第2の指向特性調整部
14a…第1の音声検出部
14b…第2の音声検出部
15a…第1の音声認識部
15b…第2の音声認識部
16…辞書記憶部
17a…第1の翻訳部
17b…第2の翻訳部
18…音声圧縮部
19…記録音声生成部
21…カメラ
22…カメラ処理部
23…動きセンサ
24…検出部
24a…物体検出部
24b…物体位置検出部
24c…物体認識部
25…動きベクトル検出部
26…動画圧縮部
27…文字合成部
31…人間分類情報記憶部
32…画像基準特徴情報記憶部
33…音声基準特徴情報記憶部
34…指向特性優先度記憶部
40…CPU
40a…関連付け部
40b…追跡制御部
40c…指向調整制御部
40d…出力制御部
41…操作部
42…方角センサ
43…記録部
44…音声出力部
45…表示部
Claims (9)
- 音声を発した物体に応じて文字表示を行う画像音声処理装置において、
光学系により被写体からの光を集光し、電気信号へ変換して画像データを生成する撮像部と、
音源から発せられた音声を電気信号へ変換して音声データを生成する複数のマイクロフォンが所定間隔で配置されたマイクロフォンアレイと、
前記撮像部により生成された画像データに基づいて、前記画像音声処理装置から前記被写体までの距離及び前記画像音声処理装置に対する前記被写体の方向を算出する物体位置検出部と、
前記マイクロフォンアレイにより生成された音声データに基づいて、前記画像音声処理装置から前記音源までの距離及び前記画像音声処理装置に対する前記音源の方向を算出する音声位置検出部と、
前記物体位置検出部により算出された前記被写体の距離及び方向と、前記音声位置検出部により算出された前記音源の距離及び方向とに基づいて、前記被写体と前記音源とを同一の物体として関連付ける関連付け部と、
前記物体位置検出部により算出された前記被写体の距離及び方向、又は前記音声位置検出部により算出された前記音源の距離及び方向とに基づいて、前記マイクロフォンアレイの指向特性を調整する指向特性調整部と、
前記指向特性調整部により指向特性が調整されたマイクロフォンアレイにより生成された音声データに基づいて音声を文字列に変換する音声認識部と、
前記音声認識部により変換された文字列を前記被写体に応じて画面に表示するための出力データを出力部に生成させる出力制御部と、
を備えた画像音声処理装置。 - 前記画像データ上における前記関連付け部により関連付けられた物体に対応する前記被写体の追跡を行う追跡制御部と、を更に備え、
前記指向特性調整部は、前記追跡制御部の追跡結果と、前記物体位置検出部により算出された前記被写体の距離及び方向、又は前記音声位置検出部により算出された前記音源の距離及び方向とに基づいて、前記マイクロフォンアレイの指向特性を調整することを特徴とする請求項1記載の画像音声処理装置。 - 前記撮像部により生成された画像データから被写体の特徴情報を検出する物体検出部と、
人間の特徴情報と、この人間の特徴情報に基づいて分類された人間分類とを関連付けて、人間分類情報として記憶する人間分類情報記憶部と、
前記人間分類情報に基づいて、前記物体検出部により検出された被写体の特徴情報に対応する人間分類を抽出する物体認識部と、
前記音声認識部により変換された文字列を、前記物体認識部により抽出された人間分類に応じた言語から予め設定された母国語へ翻訳する翻訳部と、を更に備え、
前記出力制御部は、
前記物体検出部により検出した前記画面上の被写体画像に応じて、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項1又は2記載の画像音声処理装置。 - 前記出力制御部は、
前記物体検出部により検出した前記画面上の被写体画像の近傍に、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項3記載の画像音声処理装置。 - 前記出力制御部は、
前記撮像部により生成された画像データの被写体の大きさに基づいて、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項3又は4記載の画像音声処理装置。 - 前記出力制御部は、
前記撮像部により生成された画像データにおける被写体の向きに基づいて、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項3〜5のうちいずれか1項記載の画像音声処理装置。 - 前記出力制御部は、
前記撮像部により生成された画像データにおける被写体の種類に基づいて、前記翻訳部により変換された文字列の色又はフォントのうちの少なくともいずれか一方を決定し、この決定した色又はフォントで前記変換された文字列を画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項3〜6のうちいずれか1項記載の画像音声処理装置。 - 前記出力制御部は、
前記物体認識部により、前記被写体が人間であると判定された場合に、前記画面上の人間の口元近傍の位置に、前記翻訳部により変換された文字列を画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項3〜7のうちいずれか1項記載の画像音声処理装置。 - 前記出力制御部は、
前記物体認識部により、前記被写体が人間であると判定された場合に、前記人間の頭部の角度に応じて、前記翻訳部により変換された文字列を傾けて画面に表示するための出力データを前記出力部に生成させる
ことを特徴とする請求項3〜8のうちいずれか1項記載の画像音声処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008330529A JP2010154259A (ja) | 2008-12-25 | 2008-12-25 | 画像音声処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008330529A JP2010154259A (ja) | 2008-12-25 | 2008-12-25 | 画像音声処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010154259A true JP2010154259A (ja) | 2010-07-08 |
Family
ID=42572805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008330529A Pending JP2010154259A (ja) | 2008-12-25 | 2008-12-25 | 画像音声処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010154259A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012074880A (ja) * | 2010-09-28 | 2012-04-12 | Toshiba Corp | 音声付き動画像呈示装置、方法およびプログラム |
JP2013141090A (ja) * | 2011-12-28 | 2013-07-18 | Canon Inc | 撮影装置及びその処理方法 |
JP2013172411A (ja) * | 2012-02-22 | 2013-09-02 | Nec Corp | 音声認識システム、音声認識方法および音声認識プログラム |
WO2014132533A1 (ja) * | 2013-03-01 | 2014-09-04 | シャープ株式会社 | 音声入力装置およびその音声入力装置を備えた画像表示装置 |
JP2016051081A (ja) * | 2014-08-29 | 2016-04-11 | 本田技研工業株式会社 | 音源分離装置、及び音源分離方法 |
JP2017022600A (ja) * | 2015-07-13 | 2017-01-26 | 国立大学法人静岡大学 | 画像通信装置 |
US10978072B2 (en) | 2017-09-20 | 2021-04-13 | Kabushiki Kaisha Toshiba | Display control system, display control method, and computer program product using display sectors in one revolution of clockwise or counterclockwise direction |
CN112703748A (zh) * | 2019-02-15 | 2021-04-23 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法以及程序 |
CN118612471A (zh) * | 2024-08-07 | 2024-09-06 | 深圳市天诺安防有限公司 | 视频云存储方法、系统、计算机设备以及存储介质 |
-
2008
- 2008-12-25 JP JP2008330529A patent/JP2010154259A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012074880A (ja) * | 2010-09-28 | 2012-04-12 | Toshiba Corp | 音声付き動画像呈示装置、方法およびプログラム |
US8837747B2 (en) | 2010-09-28 | 2014-09-16 | Kabushiki Kaisha Toshiba | Apparatus, method, and program product for presenting moving image with sound |
JP2013141090A (ja) * | 2011-12-28 | 2013-07-18 | Canon Inc | 撮影装置及びその処理方法 |
JP2013172411A (ja) * | 2012-02-22 | 2013-09-02 | Nec Corp | 音声認識システム、音声認識方法および音声認識プログラム |
WO2014132533A1 (ja) * | 2013-03-01 | 2014-09-04 | シャープ株式会社 | 音声入力装置およびその音声入力装置を備えた画像表示装置 |
JPWO2014132533A1 (ja) * | 2013-03-01 | 2017-02-02 | シャープ株式会社 | 音声入力装置およびその音声入力装置を備えた画像表示装置 |
JP2016051081A (ja) * | 2014-08-29 | 2016-04-11 | 本田技研工業株式会社 | 音源分離装置、及び音源分離方法 |
JP2017022600A (ja) * | 2015-07-13 | 2017-01-26 | 国立大学法人静岡大学 | 画像通信装置 |
US10978072B2 (en) | 2017-09-20 | 2021-04-13 | Kabushiki Kaisha Toshiba | Display control system, display control method, and computer program product using display sectors in one revolution of clockwise or counterclockwise direction |
CN112703748A (zh) * | 2019-02-15 | 2021-04-23 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法以及程序 |
CN112703748B (zh) * | 2019-02-15 | 2024-06-04 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法以及程序记录介质 |
CN118612471A (zh) * | 2024-08-07 | 2024-09-06 | 深圳市天诺安防有限公司 | 视频云存储方法、系统、计算机设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010154259A (ja) | 画像音声処理装置 | |
JP6464449B2 (ja) | 音源分離装置、及び音源分離方法 | |
JP6017854B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム | |
KR102465227B1 (ko) | 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체 | |
JP2013122695A (ja) | 情報提示装置、情報提示方法、情報提示プログラム、及び情報伝達システム | |
JP4980018B2 (ja) | 字幕生成装置 | |
US20100302401A1 (en) | Image Audio Processing Apparatus And Image Sensing Apparatus | |
US20090066798A1 (en) | Sound Corrector, Sound Recording Device, Sound Reproducing Device, and Sound Correcting Method | |
JP2009156888A (ja) | 音声補正装置及びそれを備えた撮像装置並びに音声補正方法 | |
US11790900B2 (en) | System and method for audio-visual multi-speaker speech separation with location-based selection | |
WO2012133058A1 (ja) | 電子機器及び情報伝達システム | |
US9807497B2 (en) | Sound source localization device, sound processing system, and control method of sound source localization device | |
JP2007221300A (ja) | ロボット及びロボットの制御方法 | |
WO2011027862A1 (ja) | 音声データ合成装置 | |
JP2009141555A (ja) | 音声入力機能付き撮像装置及びその音声記録方法 | |
JP2011250100A (ja) | 画像処理装置および方法、並びにプログラム | |
JP2010154260A (ja) | 音声識別装置 | |
JP2012205240A (ja) | 電子機器及び情報伝達システム | |
KR102454761B1 (ko) | 영상표시장치의 동작 방법 | |
JP4669150B2 (ja) | 主被写体推定装置及び主被写体推定方法 | |
JP2011061461A (ja) | 撮像装置、指向性制御方法及びそのプログラム | |
KR102348658B1 (ko) | 표시장치 및 그 구동 방법 | |
JP2012205242A (ja) | 電子機器及び情報伝達システム | |
JP6295442B2 (ja) | 画像生成装置、撮影装置、画像生成方法及びプログラム | |
WO2021206679A1 (en) | Audio-visual multi-speacer speech separation |