JP6392051B2 - 電子機器、方法およびプログラム - Google Patents

電子機器、方法およびプログラム Download PDF

Info

Publication number
JP6392051B2
JP6392051B2 JP2014192588A JP2014192588A JP6392051B2 JP 6392051 B2 JP6392051 B2 JP 6392051B2 JP 2014192588 A JP2014192588 A JP 2014192588A JP 2014192588 A JP2014192588 A JP 2014192588A JP 6392051 B2 JP6392051 B2 JP 6392051B2
Authority
JP
Japan
Prior art keywords
speaker
utterance section
playback
recording
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014192588A
Other languages
English (en)
Other versions
JP2016062071A (ja
JP2016062071A5 (ja
Inventor
隆一 山口
隆一 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014192588A priority Critical patent/JP6392051B2/ja
Priority to US14/662,609 priority patent/US9536526B2/en
Publication of JP2016062071A publication Critical patent/JP2016062071A/ja
Publication of JP2016062071A5 publication Critical patent/JP2016062071A5/ja
Application granted granted Critical
Publication of JP6392051B2 publication Critical patent/JP6392051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)

Description

本発明の実施形態は、電子機器、方法およびプログラムに関する。
近年、タブレットやスマートフォンなど、バッテリ駆動可能で携行容易な電子機器が広く普及している。この種の電子機器は、表示面に触れることで入力操作を可能とするタッチスクリーンディスプレイを備えていることが一般的である。また、この種の電子機器の多くは、マイクロフォンとスピーカとを備えており、例えば会議での会話を録音・再生するためのレコーダとして利用することができる。
特開2007−256498号公報
現在、音声を解析して話者を識別する様々な手法が知られている。これらの手法で話者を識別することにより、例えば、会議の議事録を作成するために、その会議での会話を録音した音声を再生する場合等において、誰の発言なのかを視覚的に確認可能とする表示画面を提供することができる。つまり、会議の議事録の作成等を支援すべく、音声を可視化することができる。
しかしながら、話者の識別は、録音環境等の様々な影響により、100%の精度で実行できるとはいえない。同一人物の音声が複数の人物の音声と識別されたり、逆に、複数の人物の音声が同一人物の音声と識別されたり等が発生し得る。
本発明が解決しようとする課題は、話者の識別の結果を簡単な操作で修正することを可能とする電子機器、方法およびプログラムを提供することである。
実施形態によれば、電子機器は、タッチパネルを有するディスプレイと、音声データを記憶する不揮発性メモリと、音声録音再生プログラムを実行するプロセッサと、を具備する。前記プロセッサは、前記ディスプレイ上に少なくとも音声を録音するための録音画面、前記音声を再生するための再生画面を表示し、前記録音画面を用いて録音した前記音声データを前記不揮発性メモリに記憶し、前記再生画面を用いて前記不揮発性メモリに記憶した前記音声データを再生し、前記再生画面には、発話区間を示す発話区間バーが発話した話者をそれぞれ識別可能に表示し、前記再生画面を用いて前記音声データを音声再生中に、前記再生画面の特定エリアを長押しした時、再生モードから編集モードに移行させ、前記編集モードにおいて、第1話者の第1発話区間と第2話者の第2発話区間を統合する操作が実行された時、前記第2話者として識別されている全ての前記第2発話区間を前記第1話者の前記第1発話区間に一括して修正する。
実施形態の電子機器の外観の一例を示す図。 実施形態の電子機器のシステム構成の一例を示す図。 実施形態の電子機器上で動作する音声録音再生プログラムの機能構成(機能ブロック)の一例を示す図。 実施形態の電子機器上で動作する音声録音再生プログラムによって表示される表示画面の一覧を示す図。 実施形態の電子機器上で動作する音声録音再生プログラムによって表示されるホーム画面の一例を示す図。 実施形態の電子機器上で動作する音声録音再生プログラムによって表示される録音画面の一例を示す図。 実施形態の電子機器上で動作する音声録音再生プログラムによって表示される再生画面の一例を示す図。 実施形態の電子機器で動作する音声録音再生プログラムが話者統合用に提供するユーザインタフェースを説明するための第1の図。 実施形態の電子機器で動作する音声録音再生プログラムが話者統合用に提供するユーザインタフェースを説明するための第2の図。 実施形態の電子機器で動作する音声録音再生プログラムが話者統合用に提供するユーザインタフェースを説明するための第3の図。 実施形態の電子機器で動作する音声録音再生プログラムが話者分割用に提供するユーザインタフェースを説明するための第1の図。 実施形態の電子機器で動作する音声録音再生プログラムが話者分割用に提供するユーザインタフェースを説明するための第2の図。 実施形態の電子機器で動作する音声録音再生プログラムが話者分割用に提供するユーザインタフェースを説明するための第3の図。 実施形態の電子機器の話者統合または話者分割に関する動作手順を示すフローチャート。
以下、実施の形態について図面を参照して説明する。
本実施形態の電子機器は、例えば、タブレット、スマートフォン、PDA(Personal Digital assistant)等として実現し得る。なお、ここでは、本電子機器が、タブレットとして実現される場合を想定する。また、以下に説明する要素や構成は、ハードウェアを用いて実現できるが、マイクロコンピュータ(処理装置、CPU(Central Processing Unit))を用いるソフトウェアによっても実現できる。
図1は、タブレット1の外観の一例を示す図である。図1に示すように、タブレット1は、本体ユニット(PC本体)10とタッチスクリーンディスプレイ20とを含む。
PC本体10の所定の位置には、タッチスクリーンディスプレイ20に面する撮影の対象、例えばユーザやユーザとその背景またはユーザの周囲に位置に位置する物体等の情報を映像(画像情報)として取り込むカメラユニット11が位置する。PC本体10の所定の位置には、また、ユーザまたはユーザとその周囲に居る任意数の人の音声または周辺の音(音響)を取り込む第1および第2のマイクロフォン12R,12Lが位置する。第1および第2のマイクロフォン12R,12Lは、例えばカメラユニット11を仮想的中心とし、カメラユニット11から実質的に等距離に位置する。なお、本実施形態では、マイクロフォンが2つ設けられた形態を例示するが、設けられるマイクロフォンは1つであってもよい。
また、PC本体10の所定の位置には、PC本体10が保持する音声/音響データ(以下、音声データと称する)を再生するスピーカ13R,13Lが位置する。なお、PC本体10の所定の位置には、詳述しないが、電源オンスイッチ(パワーボタン)、ロック機構および認証ユニット等が位置する。パワーボタンは、タブレット1の利用を可能とする(タブレット1を起動する)ための電源のオン/オフを制御する。ロック機構は、例えば持ち運び時のパワーボタンの動作をロックする。認証ユニットは、例えばユーザを認証するために、ユーザの指や手のひらと関連付けられる(生体)情報を読み取る。
タッチスクリーンディスプレイ20は、液晶表示ユニット(LCD(Liquid Crystal Display)/表示ユニット)21と、タッチパネル(指示入力受けつけユニット)22とを含む。タッチパネル22は、少なくともLCD21の表示面(画面)を覆うように、PC本体10の所定の位置に位置する。
タッチスクリーンディスプレイ20は、外部オブジェクト(タッチペンまたはユーザの手の指等)が接触する表示画面上の指示入力位置(タッチ位置または接触位置)を検知する。タッチスクリーンディスプレイ20は、また、同時に複数の指示入力位置を検知可能なマルチタッチ機能を有する(サポートしている)。なお、外部オブジェクトは、前述の通り、タッチペンやユーザの指等、いずれでもよいが、以降の説明では、ユーザの指を例示して説明を行う。
タッチスクリーンディスプレイ20は、また、タブレット1における各種アプリケーションプログラムの画面や画像(オブジェクト)を表示するメインディスプレイとして使用される。なお、タッチスクリーンディスプレイ20は、PC本体10の起動時に、ユーザが起動しようとする任意のアプリケーションプログラムの実行開始(起動)を外部オブジェクトによる指示入力にて受け付け、任意数の起動されたアプリケーションプログラムについてのアイコンを表示する。また、タッチスクリーンディスプレイ20の表示画面の向きは、横向き(ランドスケープ)と縦向き(ポートレート)との間で切り替えることができ、図1は、ランドスケープ時の起動完了画面の表示の一例を示している。
図2に、タブレット1のシステム構成の一例を示す。
図2に示すように、タブレット1は、CPU101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、サウンドコントローラ105、BIOS−ROM106、不揮発性メモリ107、EEPROM108、LANコントローラ109、無線LANコントローラ110、バイブレータ111、加速度センサ112、オーディオキャプチャ(ボード)113、エンベデッドコントローラ(EC:Embedded Contoller)114等を備える。
CPU101は、PC本体10とタッチスクリーンディスプレイ20の各部の動作を制御する。すなわち、CPU101は、不揮発性メモリ107から主メモリ103にロードされるオペレーティングシステム(OS)201および各種アプリケーションプログラムを実行する。各種アプリケーションプログラムの1つとして、後述する音声録音再生プログラム202が存在する。音声録音再生プログラム202は、OS201の制御下で実行されるソフトウェアである。音声録音再生プログラム202は、例えば1チップマイコン等により構成する音声録音再生プロセッサ121を用いてハードウェアにより実現することもできる。
CPU101は、また、BIOS−ROM106に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102は、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
システムコントローラ102は、また、不揮発性メモリ107を制御するためのATAコントローラを内蔵している。システムコントローラ102は、さらに、各種USBデバイスを制御するためのUSBコントローラを内蔵している。また、システムコントローラ102は、サウンドコントローラ105およびオーディオキャプチャ113との通信を実行する機能も有している。なお、カメラユニット11が取得(撮影)する画像データ(動画/静止画)は、カメラユニット11において所定のフォーマットに変換され、システムコントローラ102を通じて主メモリ103上で動作する画像処理プログラムに供給される。カメラユニット11からの画像データは、ユーザの要求に応じて起動する、カメラユニット11からの画像データに対応するフォーマットの画像を再生可能な画像処理プログラムにおいて再生され、LCD21に表示される。また、カメラユニット11からの画像データは、例えば不揮発性メモリ107が保持できる。
グラフィクスコントローラ104は、PC本体10のタッチスクリーンディスプレイ20のLCD21を制御する表示コントローラである。グラフィクスコントローラ104が生成する表示信号がLCD21に送られ、LCD21は、表示信号に基づいて映像を表示する。LCD21上に位置するタッチパネル22は、LCD21の画面上での表示に対応する入力信号を入力するためのポインティングデバイス(ユーザ操作指示入力機構)である。ユーザは、タッチパネル22により、LCD21の画面に表示されたグラフィカルユーザインタフェース(GUI)等にユーザ操作、即ち指示入力を入力することができ、これによりPC本体10を操作することができる。つまり、ユーザは、タッチパネル22を通じてLCD21が表示する起動アイコンやLCD21が表示するボタンをタッチすることで、起動アイコンやボタンに対応する機能の実行を指示することができる。
サウンドコントローラ105は、音源デバイスであり、再生対象の音声データをアナログ出力に変換した後、スピーカ13R,13Lに出力する。
LANコントローラ109は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスである。無線LANコントローラ110は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。
バイブレータ111は、PC本体10に対し、必要に応じて振動(バイブレーション)を与える。
加速度センサ112は、タッチスクリーンディスプレイ20の表示画面のポートレートとランドスケープとの間の切り換えのためのPC本体10の回転や、ユーザの指の動きのうちの衝撃の強さ等を検出する。
オーディオキャプチャ113は、マイクロフォン12R(例えばカメラユニット11の右側に位置する)および12L(カメラユニット11の左側に位置する)のそれぞれが取得する音声または音響(オーディオ)をアナログ−デジタル変換し、デジタル信号を出力する。オーディオキャプチャ113は、また、どちらのマイクロフォン12R,12Lへの入力信号のレベルが大きいかを示す情報を、主メモリ103上で動作する音声録音再生プログラム202へ、システムコントローラ102を通じて入力する。オーディオキャプチャ113は、音声録音再生プログラム202において利用可能な所定の前処理の一部または全部を担うことも可能である。
EC114は、電力管理のためのエンベデッドコントローラを含む1チップマイクロコンピュータである。EC114は、また、ユーザによるパワーボタンの操作に応じたPC本体10の電源のオン/電源オフを制御する。
図3は、このような構成を持つタブレット1上で動作する音声録音再生プログラム202の機能構成(機能ブロック)の一例を示す図である。
音声録音再生プログラム202は、音声の録音、保存された音声の再生および保存された音声の編集機能を有している。音声録音再生プログラム202は、同プログラムを実行するための機能モジュールとして、タッチ情報受信部310、制御部320、音声再生処理部330および表示処理部340を少なくとも備える。
タッチ情報受信部310は、ユーザの指示(ユーザの指の動作)のある毎に、第1の座標情報、第2の座標情報およびユーザの指の動きの情報を、タッチパネルドライバ201Aを経由してタッチパネル22から受け取り、制御部320に出力する。第1の座標情報は、ユーザの指がタッチパネル22の表示面の任意の位置に触れた位置の座標情報(x,y)である。第2の座標情報は、ユーザの指がタッチパネル22の表示面から離れた位置の座標情報(x´,y´)である。ユーザの指の動き情報は、第1の座標情報(x,y)と第2の座標情報(x´,y´)との間のユーザの指の動き、または、第2の座標情報に付属するユーザの指の動き、例えば指が離れる際の方向の情報等を含む。
なお、本実施形態でのユーザの操作入力(ユーザの指の動作)とその呼称は、以下の通りとする。
[1] タッチ:ユーザの指が一定期間、タッチパネル22の表示面上の所定の位置に位置する(第1の座標情報と第2の座標情報が実質的に同一であって、一定時間経過後、表示面とほぼ直交する方向に離される)。
[2] タップ:ユーザの指がタッチパネル22の表示面上に任意の位置に所定時間触れた後、表示面と直交する方向に離される(タッチと同義に扱われる場合もある)。
[3] スワイプ:ユーザの指がタッチパネル22の表示面の任意の位置に触れた後、任意の方向に移動する(第1の座標情報と第2の座標情報との間に指の動き情報を含む、つまり表示面をなぞるようにユーザの指が表示面を移動する)。
[4] フリック:ユーザの指がタッチパネル22の表示面の任意の位置に触れた後、任意の方向に向けて掃われるように移動し、表示面から離される(タップにおいてユーザの指が表示面から離れる際に、方向の情報を伴う)。
[5] ピンチ:ユーザの2本の指がタッチパネル22の任意の位置に触れた後、表示面で指の間隔を変更する。特に、指の間隔を広げる(指を開く)場合をピンチアウト、指の間隔を狭める(指を閉じる)場合をピンチインと称する場合もある。
制御部320は、タッチ情報受信部310が出力する第1の座標情報、第2の座標情報およびユーザの指の動き情報に基づいて、前述の[1]−[5]のユーザの指の動きの情報により特定されるユーザの動作(ユーザの指示入力)に対応する動作を行う。制御部320は、以下に説明するキーボードモードまたはマウスモードのどちらの動作モードにおいても、タッチ情報受信部310からの第1の座標情報、第2の座標情報およびユーザの指の動き情報に基づいて、ユーザの指示入力に対応する動作を行う。なお、この場合、タッチ[1]は、タップ[2]に準じた動作であってもよいが、本実施形態では、制御部320は、実質的にタッチに引き続きタッチパネル22の表示面上をユーザの指が移動することをスワイプ[3]と判定するものとする。また、制御部320は、ユーザの指がタッチパネル22上の移動から離れる位置の座標情報(x´,y´)を受け取った場合、スワイプ[3]またはフリック[4]と判定するものとする。制御部320は、タッチパネル22からの第1の座標情報、第2の座標情報およびユーザの指の動き情報に基づいて、タッチパネル22の表示面をユーザの指がなぞった(スワイプした)スワイプ長さ(指示区間長)も求めることができる。
キーボードモードは、一般には、LCD21が表示するキーボード配列の画像に対するタッチパネル22からのタップに従い対応する個々のキーに固有の文字コードを出力することで、タッチスクリーンディスプレイ20を仮想キーボードとして利用することを可能とする。マウスモードは、タッチパネル22上の(指の)接触位置の移動に応じて、その接触位置の移動の方向および距離を示す相対座標データを出力する動作モードである。
そして、ユーザがタッチパネル22の表示面に表示される所定のアイコン(またはボタン表示)のうちの音声録音再生アイコン290(図1参照)をタッチすると、ユーザの指の表示面の位置の座標情報に対応する音声録音再生アイコン290と関連付けられたアプリケーション、つまり音声録音再生プログラム202が起動される。
制御部320は、音声録音再生プログラム202を実行するための機能モジュールとして、例えば話者識別部321、話者統合部322、話者分割部323等を含む。
話者識別部321は、音声を解析して話者を識別するモジュールである。話者を識別する手法については、例えば特開2010−055103号公報(特許第5174068号公報)等に具体的な手法が詳細に説明されており、ここでは、その詳細については説明を割愛するが、本タブレット1では、話者識別部321が、例えば音声の入力方向に基づいて話者を識別する簡易的な手法(第1手法)と、音声の特徴に基づいて話者を識別する本格的な手法(第2手法)との2種類の手法を併せ持つ。音声の録音時、話者識別部321は、第1に、オーディオキャプチャ113から出力されるデジタル信号(音声)に対し、発話区間毎に話者を識別する処理を第1手法により即時的に実行する。なお、話者識別部321は、一定時間長未満の無音区間を挟んで同一話者の発話区間が存在する場合、これらを1つの発話区間として処理する。また、話者識別部321は、ある話者の発言中に一定時間長未満の他の話者の発言があった場合も、他の話者の発話区間を介在させず、ある話者の1つの発話区間とすべく処理する。この話者の識別結果に基づいた表示処理が、音声の録音時にリアルタイムに行われる。
オーディオキャプチャ113から出力されるデジタル信号(音声)は、例えば不揮発性メモリ107に音声データ401として保存される。話者識別部321は、第2に、バックグラウンド処理として、この音声データ401に対し、発話区間毎に話者を識別する処理を第2手法により改めて実行する。この話者の識別結果は、例えば不揮発性メモリ107にインデックスデータ402として保存される。音声の再生時には、このインデックスデータ402として保存される話者の識別結果に基づいた表示処理が行われる。
話者統合部322は、同一人物の音声が複数の人物の音声と識別されている場合に、当該複数の人物の音声と識別されている音声を同一人物の音声として統合すべくインデックスデータ402を修正するためのモジュールである。また、話者分割部323は、複数の人物の音声が同一人物の音声と識別されている場合に、当該同一人物の音声と識別されている音声を複数の人物の音声として分割すべくインデックスデータ402を修正するためのモジュールである。本タブレット1は、話者統合部322および話者分割部323を備えて、ユーザが、話者識別部321による話者の識別の結果を簡単な操作で修正することのできるユーザインタフェースを提供する。
音声再生処理部330は、音声録音再生プログラム202において再生する音声出力信号を処理するモジュールである。音声再生処理部330は、サウンドコントローラ105に対して、録音時の話者の位置を擬似的に再現できるように、例えば再生中の音声データに対応する話者の位置を基に、スピーカ13Rおよびスピーカ13Lが出力する再生音声の出力割合を変更する制御を行うことができる。
そして、表示処理部340は、PC本体10のタッチスクリーンディスプレイ20に表示される表示画面210(図1参照)内に様々な情報を表示するための表示信号を処理するモジュールである。
次に、音声録音再生プログラム202の動作原理について、当該音声録音再生プログラム202によるPC本体10のタッチスクリーンディスプレイ20への表示画面210の一表示例を示しながら説明する。
音声録音再生プログラム202は、図4に示すように、大きく分けて、ホーム画面210−1(図4の(a))、録音画面210−2(図4の(b))および再生画面210−3(図4の(c))の3種類の画面を表示する。
ホーム画面210−1は、音声録音再生プログラム202が起動時に表示する基本画面である。図5は、ホーム画面210−1(図4の(a))の拡大図である。
図5に示すように、ホーム画面210−1には、録音を開始するための録音ボタンa1と、録音済みの音声データ401の再生を開始するためのボタンの役割を兼ねる、録音済みの音声データ401を選択肢として提示するリストa2とが表示される。リストa2内における録音済みの音声データ401それぞれの表示領域(a3)には、例えば、録音開始時刻、録音終了時刻、録音時間等、ユーザが目的の音声データ401を選び出すための様々な情報が表示される。なお、ここでは、リストa2内に録音済みの音声データ401が1つのみ表示されているが、録画済みの音声データ401が複数存在する場合、それらすべてがリストa2内に垂直方向に並べられて表示される。リストa2の表示領域内に収まり切らない数の録音済みの音声データ401が存在する場合、その一部のみがリストa2内に表示され、リストa2の表示領域上での例えばスワイプまたはフリックにより、表示される録音済みの音声データ401が切り換わる(スクロール)。また、リストa2内での録画済みの音声データ401の並び順は、録音開始時刻の新しい順と録音開始時刻の古い順との間で切り替えることができる。
このホーム画面210−1の録音ボタンa1にタッチまたはタップすることで、ユーザは、録音を開始することができる。録音画面210−2(図4の(b))は、音声録音再生プログラム202が録音中に表示する画面である。図6は、録音画面210−2(図4の(b))の拡大図である。
図6中、符号b1で示されるラインは、現在時点を示す。このラインを基点に、話者が識別されながら音声が録音される様子が示される。前述したように、音声録音再生プログラム202(話者識別部321)は、音声の録音時、簡易的な手法である第1手法により話者を識別する処理を実行する。話者が識別されるまでの期間(b2)は、音声の入力レベルが示される。話者が識別されると、音声の入力レベルに代わって、各々の発話区間を示す発話区間バーb3が、話者を識別可能に表示される。
また、録音画面210−2には、識別された話者を示す、例えば識別された順にアルファベットが割り振られる話者マークb4が話者毎に表示される。話者マークb4は、最大10人(A〜J)まで表示できる。録音画面210−2には、発話マークb5も表示される。録音画面210−2における発話マークb5は、音声の入力有無を示し、音声が入力されている際に表示される。また、録音画面210−2には、録音を停止するための停止ボタンb6が表示される。この停止ボタンb6にタッチまたはタップすることで、ユーザは、録音を一時停止または停止することができる。録音を停止すると、図5に示したホーム画面210−1に復帰する。
ホーム画面210−1のリストa2内に選択肢として提示される音声データ401をタッチまたはタップによって選択することにより、ユーザは、その音声データ401の再生を開始することができる。再生画面210−3(図4の(c))は、音声録音再生プログラム202が音声の再生中に表示する画面である。図7は、再生画面210−3(図4の(c))の拡大図である。
図7に示すように、再生画面210−3にも、各々の発話区間を示す発話区間バーc1が、話者を識別可能に表示される。符号c2で示されるラインは、再生時点を示す。図7では、このラインが話者Fの発話区間を示す発話区間バーc1上に位置しているので、話者Fの音声が出力されていることになる。また、再生画面210−3にも、話者マークc3と発話マークc4が表示される。再生画面210−1における発話マークc4は、音声が出力されている際、その話者を示す話者マークc3の下に位置することで、発言者を示す(図7では、話者Fを示す話者マークc3の下に位置している)。
また、再生画面210−3には、再生されている音声データ401の総録音区間を示すタイムバーc5と、この音声データ401の総録音区間中の発話区間バーc1の表示範囲を示す表示範囲バーc6とが表示される。
このように、音声録音再生プログラム202は、音声を可視化して、例えば会議の議事録の作成等を支援することができる。
続いて、音声録音再生プログラム202が提供する、話者の識別の結果を簡単な操作で修正することのできるユーザインタフェースについて説明する。
いま、音声データ401が再生されており、図7に示した再生画面210−3がタッチスクリーンディスプレイ20に表示されているものと想定する。また、話者Fと識別されている発話区間の音声は、正しくは話者Dと識別されるべきであるところ、誤って話者Fと識別されているものと想定する。つまり、話者Dの発話区間が、話者Dの発話区間と話者Fの発話区間とに過分割された状態にある場合を想定する。そして、ユーザは、再生中の音声を聞いて、この誤りに気づき、過分割された発話区間を統合しようと考えているものと想定する。
このような場合、ユーザは、まず、図8に示すように、話者Fを示す話者マークc3を長押しする。ここで、長押しとは、タッチの状態を一定時間以上継続させる操作入力である。話者マークc3が長押しされると、音声録音再生プログラム202(制御部320)は、再生モードから編集モードへと移行する。編集モードへの移行は、例えば、再生を一時停止の状態とすることにより、ユーザに通知する。この時、再生画面210−3の更新も停止される。なお、図8中、符号d1で示される発話区間は、音声再生中の発話区間であって、話者Dを話者Fと誤って識別されている発話区間であり、符号d2で示される発話区間は、音声再生中の発話区間ではないが、同じく、話者Dを話者Fと誤って識別されている発話区間である。
編集モードへ移行したら、ユーザは、続いて、図9に示すように、(長押しした)話者Fを示す話者マークc3を移動させて話者Dを示す話者マークc3に重ねるべく、タッチスクリーンディスプレイ20上をなぞるような操作入力を行う。この操作を受けて、音声録音再生プログラム202(話者統合部)322は、話者Fの発話区間と話者Dの発話区間とを話者Dの発話区間に統合する。図10に、話者Fの発話区間と話者Dの発話区間とが話者Dの発話区間に統合された後の再生画面210−3を示す。図10に示すように、図8および図9における話者Fの発話区間d1は、先行かつ隣接する話者Dの発話区間と1つに結合されて、話者Dの発話区間e1として示されている。即ち、音声録音再生プログラム202(話者統合部)322は、発話区間単位で話者を修正するだけでなく、2以上の発話区間を1つの発話区間に統合することが可能である。また、図8および図9における(音声再生中の発話区間ではない)話者Fの発話区間d2も、話者Dの発話区間e2として示されている。つまり、1回の操作で、ユーザは、音声データ401中の話者Fとして識別される発話区間を話者Dの発話区間に一括して修正することができる。なお、図10に示すように、この時、話者マークc3の表示も更新される。
発話区間の統合を完了すると、音声録音再生プログラム202(制御部320)は、編集モードから再生モードへ復帰し、音声の再生を再開する。なお、話者マークの表示領域および発話区間の表示領域以外の領域で、タッチスクリーンディスプレイ20上でのタッチが行われた場合も、音声録音再生プログラム202(制御部320)は、編集モードから再生モードへ復帰する。
次に、複数の人物の音声が同一人物の音声と誤って識別されている場合であって、その一人の発話区間を複数の人物の発話区間に分割する場合について説明する。
このような状況が発生するケースとして、例えば、図11に示すように、音声の特徴が似ている話者Fの音声と話者Gの音声とがほぼ同じ方向から入力されるケースが考えられる。換言すれば、音声の特徴に若干の違いはみられるものの、ほぼ同じ方向から入力されることから、同一の話者として纏められてしまっているようなケースが考えられる。
ここでも、音声データ401が再生されており、図7に示した再生画面210−3がタッチスクリーンディスプレイ20に表示されているものと想定する。また、話者Fと識別されている音声再生中の発話区間の音声は、正しくは別の話者(話者Gとする)と識別されるべきであるところ、誤って話者Fと識別されているものと想定する。つまり、話者Fの発話区間と話者Gの発話区間とが、話者Fの発話区間として纏められた状態にある場合を想定する。そして、ユーザは、再生中の音声を聞いて、この誤りに気づき、誤って纏められた発話区間を分割しようと考えているものと想定する。
このような場合、ユーザは、まず、前述した統合の場合と同様、いずれかの話者マークを長押しして、再生モードから編集モードへの切り換えを実行する。編集モードへ移行したら、ユーザは、続いて、図12に示すように、話者Fから話者Gへ分割したい発話区間を示す発話区間バーf1へのタッチを行う。なお、図12中、符号f2で示される発話区間は、(話者Gではなく)話者Fが発言した発話区間であるものとする。
この操作を受けて、音声録音再生プログラム202(話者分割部)323は、話者Fとして識別されている発話区間のうち、タッチされた発話区間バーf1で示される発話区間の音声と特徴が一致する発話区間を話者Gの発話区間として分割する。図13に、話者Fの発話区間が話者Fの発話区間と話者Gの発話区間とに分割された後の再生画面210−3を示す。図13に示すように、図12における話者Fの発話区間f1は、話者Gの発話区間g1として示され、また、図12における話者Fの発話区間f2は、そのまま、話者Fの発話区間f2として示されている。つまり、1回の操作で、ユーザは、音声データ401中の話者Fとして識別される発話区間のうち、話者Gとして識別されるべき発話区間のみを話者Gの発話区間に一括して修正することができる。また、この時、話者マークc3の表示も更新される。
なお、音声録音再生プログラム202(話者分割部)323は、発話区間単位で話者を修正するだけでなく、発話区間を2以上の発話区間に分割することも可能である。具体的には、例えば、話者Fが発言した直後に話者Gが発言した場合であって、これらの発言が話者Fの発言として1つの発話区間に纏められているような場合、音声録音再生プログラム202(話者分割部)323は、当該1つの発話区間を(話者Fおよび話者Gの)2つの発話区間に分割することができる。
図14は、タブレット1の話者統合または話者分割に関する動作手順を示すフローチャートである。
音声の再生中、話者マークを長押しする操作が行われると(ブロックA1のYES)、タブレット1は、再生モードから編集モードに移行する(ブロックA2)。編集モードへ移行した後、長押しされた話者マークを他の話者マークに被せる操作が行われると(ブロックA3のYES)、タブレット1は、長押しされた話者マークで示される話者の音声データを、被せられた話者マークで示される話者の音声データと統合する統合処理を実行する(ブロックA4)。統合処理の実行後、タブレット1は、編集モードから再生モードに移行する(ブロックA5)。
また、編集モードへ移行した後、発話区間バーに触れる操作が行われると(ブロックA3のNO,A6のYES)、タブレット1は、触れられた発話区間バーと同一話者の音声データのうち、触れられた発話区間バーの音声データと同一の特徴をもつ音声データを別の話者に分割する分割処理を実行する(ブロックA7)。分割処理の実行後、タブレット1は、編集モードから再生モードに移行する(ブロックA5)。
また、編集モードへ移行した後、話者マーク、発話区間バー以外に触れる操作が行われた場合も(ブロックA6のNO,A8のYES)、タブレット1は、編集モードから再生モードに移行する(ブロックA5)。
このように、タブレット1は、同一人物の音声が複数の人物の音声と識別されたり、逆に、複数の人物の音声が同一人物の音声と識別されたり等、話者の識別に誤りが生じている場合に、その話者の識別の結果を簡単な操作で修正することを可能とする。
本実施形態に記載された様々な機能の各々は、処理回路によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたプログラムを実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例は、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含む。
本実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…タブレット、10…本体ユニット(PC本体)、11…カメラユニット、12R,12L…マイクロフォン、13R,13L…スピーカ、20…タッチスクリーンディスプレイ、21…LCD、22…タッチパネル、101…CPU、102…システムコントローラ、103…主メモリ、104…グラフィクスコントローラ、105…サウンドコントローラ、106…BIOS−ROM、107…不揮発性メモリ、108…EEPROM、109…LANコントローラ、110…無線LANコントローラ、111…バイブレータ、112…加速度センサ、113…オーディオキャプチャ、114…エンベデッドコントローラ(EC)、121…音声録音再生プロセッサ、201…オペレーティングシステム(OS)、201A…タッチパネルドライバ、202…音声録音再生プログラム、310…タッチ情報受信部、320…制御部、321…話者識別部、322…話者統合部、323…話者分割部、330…音声再生処理部、340…表示処理部、401…音声データ、402…インデックスデータ

Claims (12)

  1. タッチパネルを有するディスプレイと、
    音声データを記憶する不揮発性メモリと、
    音声録音再生プログラムを実行するプロセッサと、
    を具備し、
    前記プロセッサは、
    前記ディスプレイ上に少なくとも音声を録音するための録音画面、前記音声を再生するための再生画面を表示し、
    前記録音画面を用いて録音した前記音声データを前記不揮発性メモリに記憶し、
    前記再生画面を用いて前記不揮発性メモリに記憶した前記音声データを再生し、
    前記再生画面には、発話区間を示す発話区間バーが発話した話者をそれぞれ識別可能に表示し、
    前記再生画面を用いて前記音声データを音声再生中に、前記再生画面の特定エリアを長押しした時、再生モードから編集モードに移行させ、
    前記編集モードにおいて、第1話者の第1発話区間と第2話者の第2発話区間を統合する操作が実行された時、前記第2話者として識別されている全ての前記第2発話区間を前記第1話者の前記第1発話区間に一括して修正する、
    電子機器。
  2. 前記再生画面の特定エリアは、前記音声データの録音の際に識別した話者を話者毎に表示した話者マークであり、
    前記プロセッサは、
    前記話者マークの前記第1話者に対応する位置を長押しした時、再生モードから編集モードに移行させ、
    前記第1話者に対応する前記話者マークから前記第2話者に対応する前記話者マークになぞる移動操作に応答して前記統合する操作を実行する、
    請求項1に記載の電子機器。
  3. 前記プロセッサは、前記第1発話区間への統合が完了した場合、又は前記ディスプレイ上の前記発話区間を示す発話区間バーの表示領域、および前記特定エリアの表示領域以外をタッチすると、前記編集モードから前記再生モードに復帰する請求項に記載の電子機器。
  4. 前記プロセッサは、前記編集モードにおいて、第3話者から第4話者に変更したい前記発話区間バーをタッチしたことを受けて、そのタッチされた発話区間を前記第3話者から前記第4話者に修正し、前記第3話者と識別されている他の話者区間は修正しない請求項1に記載の電子機器。
  5. 前記プロセッサは、前記音声データを録音する時簡易的な第1手法によ話者識別して前記不揮発性メモリに記憶し、前記不揮発性メモリに記憶した前記音声データを本格的な第2手法により再度話者識別して、その識別結果をインデックスデータとして前記不揮発性メモリに記憶し、前記インデックスデータに基づき前記発話区間を示す発話区間バーの話者を識別可能に表示する請求項1に記載の電子機器。
  6. タッチパネルを有するディスプレイ上に、少なくとも音声を録音するための録音画面、前記音声を再生するための再生画面を表示し、
    前記録音画面を用いて録音した音声データを不揮発性メモリに記憶し、
    前記再生画面を用いて前記不揮発性メモリに記憶した前記音声データを再生し、
    前記再生画面には、発話区間を示す発話区間バーが発話した話者をそれぞれ識別可能に表示し、
    前記再生画面を用いて前記音声データを音声再生中に、前記再生画面の特定エリアを長押しした時、再生モードから編集モードに移行させ、
    前記編集モードにおいて、第1話者の第1発話区間と第2話者の第2発話区間を統合する操作が実行された時、前記第2話者として識別されている全ての前記第2発話区間を前記第1話者の前記第1発話区間に一括して修正する、
    電子機器の方法。
  7. 前記再生画面の特定エリアは、前記音声データの録音の際に識別した話者を話者毎に表示した話者マークであり、
    前記話者マークの前記第1話者に対応する位置を長押しした時、再生モードから編集モードに移行させ、
    前記第1話者に対応する前記話者マークから前記第2話者に対応する前記話者マークになぞる移動操作に応答して前記統合する操作を実行する、
    請求項6に記載の方法。
  8. コンピュータ
    タッチパネルを有するディスプレイ上に、少なくとも音声を録音するための録音画面、前記音声を再生するための再生画面を表示するステップと、
    前記録音画面を用いて録音した音声データを不揮発性メモリに記憶するステップと、
    前記再生画面を用いて前記不揮発性メモリに記憶した前記音声データを再生するステップと、
    前記再生画面には、発話区間を示す発話区間バーが発話した話者をそれぞれ識別可能に表示するステップと、
    前記再生画面を用いて前記音声データを音声再生中に、前記再生画面の特定エリアを長押しした時、再生モードから編集モードに移行させるステップと、
    前記編集モードにおいて、第1話者の第1発話区間と第2話者の第2発話区間を統合する操作が実行された時、前記第2話者として識別されている全ての前記第2発話区間を前記第1話者の前記第1発話区間に一括して修正するステップと、
    を実行させるためのプログラム。
  9. 前記再生画面の特定エリアは、前記音声データの録音の際に識別した話者を話者毎に表示した話者マークであり、
    前記話者マークの前記第1話者に対応する位置を長押しした時、再生モードから編集モードに移行させるステップと、
    前記第1話者に対応する前記話者マークから前記第2話者に対応する前記話者マークになぞる移動操作に応答して前記統合する操作を実行するステップと、
    を実行させる請求項に記載のプログラム。
  10. 前記第1発話区間への統合が完了した場合、又は前記ディスプレイ上の前記発話区間を示す発話区間バーの表示領域、および前記特定エリアの表示領域以外をタッチすると、前記編集モードから前記再生モードに復帰するステップを実行させる請求項に記載のプログラム。
  11. 前記編集モードにおいて、第3話者から第4話者に変更したい前記発話区間バーをタッチしたことを受けて、そのタッチされた発話区間を前記第3話者から前記第4話者に修正し、前記第3話者と識別されている他の話者区間は修正しないステップを実行させる請求項に記載のプログラム。
  12. 前記音声データを録音する時簡易的な第1手法によ話者識別して前記不揮発性メモリに記憶し、前記不揮発性メモリに記憶した前記音声データを本格的な第2手法により再度話者識別して、その識別結果をインデックスデータとして前記不揮発性メモリに記憶し、前記インデックスデータに基づき前記発話区間を示す発話区間バーの話者を識別可能に表示するステップを実行させる請求項に記載のプログラム。
JP2014192588A 2014-09-22 2014-09-22 電子機器、方法およびプログラム Active JP6392051B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014192588A JP6392051B2 (ja) 2014-09-22 2014-09-22 電子機器、方法およびプログラム
US14/662,609 US9536526B2 (en) 2014-09-22 2015-03-19 Electronic device with speaker identification, method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192588A JP6392051B2 (ja) 2014-09-22 2014-09-22 電子機器、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018152416A Division JP6672399B2 (ja) 2018-08-13 2018-08-13 電子機器

Publications (3)

Publication Number Publication Date
JP2016062071A JP2016062071A (ja) 2016-04-25
JP2016062071A5 JP2016062071A5 (ja) 2017-10-19
JP6392051B2 true JP6392051B2 (ja) 2018-09-19

Family

ID=55526327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192588A Active JP6392051B2 (ja) 2014-09-22 2014-09-22 電子機器、方法およびプログラム

Country Status (2)

Country Link
US (1) US9536526B2 (ja)
JP (1) JP6392051B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544772A (zh) * 2019-03-15 2021-10-22 富士通株式会社 编辑支持程序、编辑支持方法和编辑支持装置
US11704087B2 (en) 2020-02-03 2023-07-18 Google Llc Video-informed spatial audio expansion

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3745403B2 (ja) * 1994-04-12 2006-02-15 ゼロックス コーポレイション オーディオデータセグメントのクラスタリング方法
US7496510B2 (en) * 2000-11-30 2009-02-24 International Business Machines Corporation Method and apparatus for the automatic separating and indexing of multi-speaker conversations
JP2006330170A (ja) * 2005-05-24 2006-12-07 Nhk Engineering Services Inc 記録文書作成支援システム
JP2007256498A (ja) 2006-03-22 2007-10-04 Yamaha Corp 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム
JP5385677B2 (ja) 2009-05-12 2014-01-08 日本電信電話株式会社 対話状態分割装置とその方法、そのプログラムと記録媒体
JP5174068B2 (ja) 2010-03-11 2013-04-03 株式会社東芝 信号分類装置
US9053750B2 (en) * 2011-06-17 2015-06-09 At&T Intellectual Property I, L.P. Speaker association with a visual representation of spoken content
JP5779032B2 (ja) * 2011-07-28 2015-09-16 株式会社東芝 話者分類装置、話者分類方法および話者分類プログラム
US20130144414A1 (en) * 2011-12-06 2013-06-06 Cisco Technology, Inc. Method and apparatus for discovering and labeling speakers in a large and growing collection of videos with minimal user effort
CN105659324B (zh) * 2013-08-20 2019-01-22 英特尔公司 协作音频对话证明

Also Published As

Publication number Publication date
US9536526B2 (en) 2017-01-03
JP2016062071A (ja) 2016-04-25
US20160086608A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
US10592198B2 (en) Audio recording/playback device
JP6265401B2 (ja) メディアを再生するための方法および端末
US20160163331A1 (en) Electronic device and method for visualizing audio data
US8619046B2 (en) Information processing apparatus, notification method, and program
JP4818427B2 (ja) 情報処理装置及び画面選択方法
EP3279786A1 (en) Terminal control method and device, and terminal
KR101811219B1 (ko) 손가락 추적을 이용한 휴대 단말기 제어 방법 및 장치
JP6509516B2 (ja) 電子機器、方法及びプログラム
KR20080104099A (ko) 입력 장치 및 그 입력 방법
JP2016156996A (ja) 電子機器、方法及びプログラム
US20150160731A1 (en) Method of recognizing gesture through electronic device, electronic device, and computer readable recording medium
US10770077B2 (en) Electronic device and method
JP2018073287A (ja) 情報処理装置及び情報処理方法
WO2016152200A1 (ja) 情報処理システムおよび情報処理方法
JP6569926B2 (ja) 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム
US20190129517A1 (en) Remote control by way of sequences of keyboard codes
KR20110049275A (ko) 객체 출력이 가능한 다이얼을 구비한 휴대용 단말기의 장치 및 방법
JP6392051B2 (ja) 電子機器、方法およびプログラム
WO2016045468A1 (zh) 一种语音输入控制的方法、装置及终端
JP2023519389A (ja) スクラッチパッド作成方法及び電子機器
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP6672399B2 (ja) 電子機器
JP6472823B2 (ja) 信号処理装置、信号処理方法および属性付与装置
JP5242748B2 (ja) 情報処理装置及び画面選択方法
US20170092334A1 (en) Electronic device and method for visualizing audio data

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180822

R151 Written notification of patent or utility model registration

Ref document number: 6392051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350