JP6651989B2 - 映像処理装置、映像処理方法、及び映像処理システム - Google Patents

映像処理装置、映像処理方法、及び映像処理システム Download PDF

Info

Publication number
JP6651989B2
JP6651989B2 JP2016111652A JP2016111652A JP6651989B2 JP 6651989 B2 JP6651989 B2 JP 6651989B2 JP 2016111652 A JP2016111652 A JP 2016111652A JP 2016111652 A JP2016111652 A JP 2016111652A JP 6651989 B2 JP6651989 B2 JP 6651989B2
Authority
JP
Japan
Prior art keywords
person
speaker
video
information
video information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016111652A
Other languages
English (en)
Other versions
JP2017034658A (ja
Inventor
亮人 相場
亮人 相場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/218,655 priority Critical patent/US10264210B2/en
Publication of JP2017034658A publication Critical patent/JP2017034658A/ja
Application granted granted Critical
Publication of JP6651989B2 publication Critical patent/JP6651989B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/802Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving processing of the sound signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、映像処理装置、映像処理方法、及び映像処理システムに関する。
近年、遠隔地点で端末を介して複数拠点の映像や音声をリアルタイムに送受するテレビ会議などの遠隔コミュニケーションシステムが普及している。一拠点の参加人数が多い状態で行うテレビ会議では、参加者の中でも発言者を明確にし、かつそこに注目を集めるため、現在の発言者を音源方向推定技術や顔認識技術などを用いて判断し、カメラ制御や映像処理により発言者をアップで写す技術が知られている。
しかし、今までの発言者自動アップ機能では、議論が活発になって発言者が頻繁に切り替わる場合に、画面に表示される映像も激しく動いてしまい、視聴するには好ましくないという課題があった。これに対して、アップ対象切り替えの変化の速さに制限を設けるという対策もあるが、発言者の急な変化に対応が遅くなるという課題もある。
また、今までの発言者自動アップ機能では、現在の発言者をアップで映すことは可能であるが、例えば、現在の発言者以外で会議等の発言主体である人物などを的確に判断するといった手法の確立が望まれている。アップ対象とする人物を現在の発言者だけに限定してしまうと、発言者の変更ごとに映像が激しく切り替わることになり、視聴するには好ましくないといった課題もある。
これらの課題を解決するために、様々な方法で自動アップ対象とする人物を判断する技術が提案されている。
特許文献1では、テレビ会議などで複数のマイクから出力される音声信号から被写体(発言者)の撮影に最も適したマイクとカメラの選択を自動的に行うことができる技術が公開されている。
特許文献2では、発言者を正確かつ安定的に映す目的で、カメラ制御装置に撮像範囲を保持するホールド時間が設定されており、音声を検出した際にそのホールド時間が経過していれば、音声方向に向けてカメラの撮像方向を変化させる技術が公開されている。
特許文献3では、マイクロフォンなどを用いて、音を収音し、収音結果に基づいて、カメラを向ける方向を特定する技術が公開されている。
特許文献4では、発言者の発言時間をプリセットタイマによって設定した基準値と比較し、発言時間が基準値よりも大きければカメラを発言者の方に向けるという技術が公開されている。
特許文献5では、発言者の発言と、雑音等発言者の音声でないものと明確に区分けを行い、発言者を自動的にクローズアップして表示する技術が公開されている。
上記特許文献では、映像の頻繁な切り替えをできるだけ抑制し、視聴の不快感を低減することはできるが、発言者の急な変化に対応が遅くなるという課題、および現在の発言者以外でアップ対象となる人物を判断するといった課題は解決されていない。
そこで、本発明は、上記課題点に鑑みてなされたもので、その目的とするところは、
映像切り替えの激しい動きを抑制しつつ、現在の発言者と、その発言者以外にもアップで映し出す対象となる人物がいるかを判断し、その対象人物と現在の発言者を確実にアップで映すことができる映像処理装置、映像処理方法、及び映像処理システムを提供することである。
係る目的を達成するために、本発明は、以下の特徴を有することとする。
本発明に係る映像処理装置は、被写体を連続的に撮影し、映像情報を取得する映像取得手段と、映像情報に含まれる複数の人物から発言している人物を推定する推定手段と、推定手段より映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶する記憶手段と、発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断する判断手段と、を備える、ことを特徴とする。
本発明に係る映像処理システムは、被写体を連続的に撮影し、映像情報を取得する手段と、映像情報に含まれる複数の人物から発言している人物を推定する手段と、映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶する手段と、発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断する手段と、を備える。
本発明によれば、テレビ会議などで発言者が頻繁に切り替わる場合でも、映像切り替えの激しい動きを抑制しつつ、現在の発言者、および会議の主体である人物を確実にアップで映すことができる。
本実施形態における映像処理装置10を用いた発言者拡大のイメージ図であり、(a)は一人の発言者が拡大表示されるイメージ図で、(b)は二人の発言者が拡大表示されるイメージ図である。 本実施形態における機能ブロックを示す図である。 本実施形態における発言履歴情報の一例を示す図である。 本実施形態におけるハードウェア構成を示す図である。 本実施形態における映像処理装置10と映像受信側端末20の一連のフローチャートである。 本実施形態における過去の特定期間の発言者の切り替わり回数に着手して拡大表示する発言者を判断するフローチャートである。 本実施形態における過去の特定期間の発言者の発言情報の一例である。 本実施形態における過去の特定期間の発言者の切り替わり回数に着手して特定の組の発言者を拡大表示することを判断するフローチャートである。 本実施形態における過去の特定期間の発言者の拡大表示履歴の一例である。 本実施形態における過去の特定期間の発言者の発言回数に着手して拡大表示する発言者を判断するフローチャートである。 他の実施形態として、音声情報に着手した映像処理装置10と映像受信側端末20の一連のフローチャートである。
本発明を実施するための形態について図面を参照して説明する。図1は本実施形態の映像処理装置10を用いた発言者拡大のイメージ図である。
本実施形態の映像処理装置10は、主にテレビ会議の場で使用されることを想定する。図1(a)、(b)のように複数人が参加する会議の様子を内部に備えている撮像装置などで撮影し、その映像をスクリーンや表示デバイスなどの表示装置を備えた映像受信側端末20に映し出す。図1(a)のように人物Bが発言している場合、映像処理装置10は現在の発言者が人物Bであることを推定し、表示装置に人物Bを拡大表示して映し出す。図1(b)のように人物B、および人物Dが発言しているような場合、映像処理装置10は現在の発言者が人物B、および人物Dであることを推定し、表示装置に人物B、および人物Dが拡大されるように表示する。尚、人物を拡大した表示方法は図1(a)、図1(b)に限定されない。例えば図1(a)のように拡大対象の人物が一人だけの場合に全画面で表示するのではなく、画面の半分の領域に映し出すようにしてもよい。また図1(b)のように拡大対象の人物が複数人の場合に全画面で表示するのでなく、画面の半分の領域で分割するように映し出してもよい。
次に本実施形態の機能ブロックについて説明する。図2は本実施形態の撮像システムの機能ブロックを示すものである。本実施形態で用いる映像処理装置10は、映像取得手段101、推定手段102、記憶手段103、判断手段104から構成されている。
映像取得手段101は、主に会議の様子などが映し出されている映像、および映像に関連する情報を取得する。尚、映像に関連する情報は、例えば映像の中に人物が映っている場合などに人物の位置、顔の情報を座標情報とした情報が含まれており、映像の中に人物が映っていれば、座標情報を基に人物と判断することができる。
推定手段102は、映像取得手段101により取得された映像、および映像に関連する情報に含まれる複数の人物から発言している人物を推定する。どの人物が発言しているかを推定する方法としては、一つに人物の顔の位置座標の情報から人物の表情の変化や口の動きなどを読み取ることで発言者を推定する方法がある。また、現在の発言者がいないと推定した場合は、「発言者無し」の情報として、負の座標(発言している人物がいない場合の表記方法)を示すなどの方法がある。尚、この手法は顔認証技術として特開平11−35298、特開2010−192956、WO2005/114576に開示されているように周知であるため、詳細な説明は省略する。尚、発言者を推定する方法はこの方法に限定されない。例えば音声から話者を推定する技術として特開2005−274707、特開2001−67098などの技術を用いてもよい。
記憶手段103は、映像、および映像に関連する情報における発言者と推定された人物を、発言履歴情報として該映像に関連する情報が取得された時間ごとに記憶する。記憶手段103は映像に関連する情報を取得した時間ごとで「発言者はどの人物であり(発言者推定)、どのくらいの期間発言した(発言時間)」という発言者情報を発言履歴として記憶する。具体的な発言履歴情報の一例を図3に示す。図3は、例えば会議など複数の人物が集まるシチュエーションを想定したもので会議開始からの時刻、発言者、発言開始時刻、発言終了時刻によって構成される。更にそのときの後述するアップ対象の判断結果についても合わせて記憶してもよい。図3で言うと、例えば会議開始(時刻tが0:00:00)から3分間(0:03:00まで)はAさんが発言したということを意味している。本発明は、発言者推定の情報と発言時間の情報があれば実現することが可能であるがこれに限定されない。例えば発言者情報に音声に関する情報(声の大きさ、声のトーンなど)を含んでもよい。更に同時に発言者が複数人いる場合などは、音声および顔の動きの大小などから記憶する発言者情報に順位を定めたりして、アップ対象とする発言者を限定してもよい。
判断手段104は、発言履歴情報を基に、アップの対象とすべき人物を判断する。例えば、現時点の発言者を基準として、過去の所定の時間範囲での発言履歴を参照し、現在の発言者である人物に続いて発言者となった回数が所定のしきい値より大きい人物を、発言者である人物とともに拡大表示の対象とすべき人物と判断する。
尚、他の判断手法として判断手段104は、アップで映し出す人物を判断する際に、過去の時間範囲での発言交代回数だけではなく、例えば現時点で発言している発言者と過去に一緒にアップで映し出す対象となった人物の情報を基に判断することもできる。判断方法としては、現時点で発言している発言者を推定したら過去のアップ情報履歴を参照し、現時点の発言者と一緒にアップになった人物を特定する。所定の条件を満たしている場合に現時点の発言者と、過去に一緒にアップ対象となった人物を一緒にアップで映し出す。
また、発言交代回数ではなく、発言回数からアップ対象となる人物を判断することも可能である。所定の時間範囲の発言者情報に「どの人物が何回発言したか」という発言回数の情報を含め、現時点で発言している発言者を推定したら過去の発言回数を参照し、所定の条件を満たしている場合に現時点の発言者と、発言回数が多い人物を優先的にアップで映し出す。
次に本実施形態のハードウェア構成について図4を用いて説明する。尚、映像処理装置10の構成は、図4に示したものと必ずしも同じ構成である必要はなく、本実施形態を実現できるハードウェアを備えていればそれで十分である。
映像処理装置10は、CPU(Central Processing Unit)201、メモリ202、映像処理部203、音声処理部204、ネットワークインタフェース(以下、ネットワークI/Fと称す)205、撮像素子インタフェース(以下、撮像素子I/Fと称す)206、カメラ209、映像出力インタフェース(以下、映像出力I/Fと称す)207、音声入出力インタフェース(以下、音声入出力I/Fと称す)208、スピーカ210、システムバスを備える。尚、上記構成はあくまでも一例であって、本発明の範囲を限定するものではない。例えば、表示装置212、1つ又は複数のマイク211を映像処理装置10に内蔵されていても良いし、カメラ209やスピーカ210は映像処理装置10とは別に設けられていても良いし、また表示装置212に内蔵されていても良い。また、映像処理装置10が複数のマイク211の少なくとも1つを有していても良い。さらに、撮像素子I/F206は映像処理部203に含まれていても良いし、音声入出力I/F208は音声処理部204に含まれていても良い。
CPU201は、例えばメモリ202からプログラムやデータを読み出し、処理を実行することで、映像処理装置10が備える各機能を実現する演算装置である。メモリ202は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等の記憶部である。メモリ202は、CPU201により実行される様々な処理に必要とされる各種ソフトウエアやデータ、映像、および映像に関する情報、音声、および音声に関する情報等を格納する。メモリ202には実施例で用いる所定のしきい値などもプログラムとして格納される。また、記憶手段103による所定の時間ごとに取得した発言情報もメモリ202に記憶され格納される。
またCPU201は、映像処理装置10全体の制御を行う。映像処理部203は、映像、および映像に関連する情報に対して各種映像処理を行う。音声処理部204は、音声、および音声に関連する情報に対して各種音声処理を行う。尚、映像処理部203、音声処理部204は、DSP(Digital Signal Processor)等のプロセッサを含んでいても良い。ネットワークI/F205は、映像処理装置10をネットワーク213に接続するためのインタフェースで、ネットワーク213を介して、図示していない他の装置等と映像、および音声の送受信などを行う。
撮像素子I/F206は、撮像用のカメラ209から出力される映像信号を映像、および映像に関連する情報として取り込むインタフェースである。表示装置212は、例えば、LCD(Liquid Crystal Display)モニタや、プロジェクタ等である。表示装置212には、音声出力用のスピーカ210を備えていても良い。映像出力I/F207は、ネットワーク213を介して表示装置212に映像や、メニュー画面、設定画面等を映像信号として出力するインタフェースである。
音声入出力I/F208は、音声入力用のマイク211を介して入力された音声信号を音声、および音声に関連する情報として取り込む。また、出力する音声をスピーカ210で再生可能な音声信号に変換する。システムバスは、アドレスバス、データバス及び各種制御信号を伝達する。
次に本実施形態の手順をフローチャートに従って説明する。図5は本実施形態における映像処理装置10と映像受信側端末20の一連のフローチャートである。図5に従って、本実施形態の一連の流れについて説明する。本実施形態の映像処理装置10が使用されるケースの一例は、主にテレビ会議等の会議の情景を映し出すことを想定としている。本実施形態は、映像処理装置10と、映像処理装置10から映像を受信して表示装置などで映像を表示する受信側端末とに分けて記載しているが、映像処理装置10と表示装置が一体となった構成でも構わない。
まず、映像処理装置10が撮像用カメラ209などで撮像された会議等の情景の映像、および映像に関連する情報を取得する(ステップ1)。取得した映像に関連する情報には、人物の位置や顔の座標情報が含まれており、人物の位置などの特定ができるようになっている。次に取得した映像、および映像に関連する情報から現在の発言者を推定する(ステップ2)。本実施形態では、人物の顔の位置座標の情報から人物の表情の変化や口の動きなどを読み取る顔認証技術を用いるが、この方法に限定されない。また、同時に複数の人物が発言している場合でも、複数の人物が発言していると推定するものとする。
次に現在の発言者の情報を基に、表示装置212にアップで映し出す人物を判断する(ステップ3)。判断のプロセスについては後述で詳しく述べることにするが、一つには現在の発言者に対して、過去の時間範囲から現在の発言者との交代回数の履歴から、アップ対象とする人物の判断を行う方法がある。また、現在の発言者に対して、過去の時間範囲から現在の発言者と一緒になったアップ情報履歴からアップ対象とする人物の判断を行う方法もある。更に、現在の発言者に対して、過去の時間範囲の各発言者の発言回数を基にアップ対象とする人物の判断を行う方法などもある。
アップ対象判断により、アップ対象とする人物がいないと判断されると、表示装置212に映し出す映像にアップ処理を行うことはない。ここで、アップ対象の人物がいないと判断される時は、基点となる現時点の発言者がいない場合などである。アップ対象判断により、アップ対象とする人物がいると判断されると、表示装置212に映し出す映像にアップ対象と判断された人物がアップで映し出されるよう処理が行われる(ステップ4)。アップ対象とする人物がいないと判断された場合には表示装置212に映し出す映像として撮像用カメラ209で取得した映像そのものが映し出されるようにアップ処理がスキップされる。
アップ処理された映像もしくはアップ処理のされていない映像は、映像出力I/Fなどを介して表示装置212を備える受信側端末へ映像信号として送信される(ステップ5)。受信側端末はアップ処理された映像もしくはアップ処理のされていない映像による映像信号を受信し(ステップ6)、液晶ディスプレイ型モニタやプロジェクタなどの表示装置212に受信した映像信号に基づいた映像を表示する(ステップ7)。本実施形態の一連の流れを図5のフローチャートに従って説明した。
第1の実施例:
次に、特定の人物をアップで映し出すための判断手段104の具体例を、実施例ごとに説明する。図6はアップで映し出す人物を判断するために、記憶手段103で記憶する所定の時間範囲での発言交代履歴を参照し、発言交代回数からアップにする人物を判断するフローである。第1の実施例として図6を参照しながら説明する。
尚、図6と後述する図8、図10は図5のフローチャートのステップ3の詳細な手法としての位置付けである。
まず、現時点を基点に発言者がいるかどうかを推定する(ステップ301)。発言者がいないと判断されたら、アップ対象となる人物はいないと判断し、アップ処理を行わない映像(取得したそのままの映像)を「アップ対象なし」用の映像として出力する(ステップ309)。発言者がいると判断されたら、現在の発言者を特定する。ここで、現在の発言者は、Aという人物と便宜上規定し、以降同一発言者をAと表記する(ステップ302)。
次に、現在の発言者であるAが特定されたら、Aの一つ前の発言者の情報を参照し、一つ前の発言者の発言が完了してからAが発言するまでの時間が所定の時間以上に空いていたかを判定する(ステップ303)。これは、Aの一つ前の発言者の発言が完了してからAが発言を開始するまでの間に所定に時間以上の間隔があった際は、連続した発言交代と見なさないためである。所定の時間以上の間隔があった際には、アップ対象とする人物は現在の発言者であるAのみと判断し、「Aをアップ対象」として出力する。(ステップ308)。尚、発言が完了したかどうかは次のように判断する。
(a)音声で判断する場合には、音声が所定時間停止した場合、発言が完了したと判断する。
(b)音声で判断する場合には、音声認識により話者が交代して、交代した話者が所定時間発言を続けた場合には、前の話者の発言が完了したと判断する。
(c)映像で判断する場合には、口の動きが所定時間停止した場合、発言が完了したと判断する。
所定の時間以上の間隔がない場合は、連続した発言交代と見なし、Aの一つ前の発言者を特定する。ここで、Aの一つ前の発言者は、Bという人物と便宜上規定し、以降同一発言者をBと表記する(ステップ304)。Aの一つ前の発言者であるBの特定が完了したら、現時点を基点に過去の時間範囲Tを参照し、AとBが所定の時間以上の間隔を入れず連続して発言を交代した回数をカウントする(ステップ305)。ここで、図7として、過去の時間範囲Tでの発言者の交代履歴の一例を示すことにする。発言者はAとBとCの3人であり、発言の交代回数をカウントすると、A→B、およびB→Aを1回とするならば、図7では、AとBの交代回数は4回と数えることができる。
AとBの発言の交代回数のカウントが完了したら、カウントした回数が所定のしきい値よりも大きいか小さいかを判定する(ステップ306)。カウントした回数が所定のしきい値よりも小さいときは、アップ対象とする人物はAのみと判断し、「Aをアップ対象」として出力する(ステップ308)。カウントした回数が所定のしきい値よりも大きいときは、アップ対象とする人物はAとBであると判断し、「AとBをアップ対象」として出力する(ステップ307)。以上により、現在発言している人物と、一つ前の発言者情報を基点としてアップ対象とする人物を判断することができ、現在の発言者だけでなく、例えばこれまでの発言履歴を踏まえて会議等の発言中心人物などを予測し、アップ対象と判断することが可能となる。
第2の実施例:
次に、特定の人物をアップで映し出すための判断手段104の二つ目の具体例を説明する。図8はアップで映し出す人物を判断するために、記憶手段103で記憶する所定の時間範囲でのアップ情報履歴を参照し、アップ情報履歴からアップにする人物を判断するフローである。第2の実施例として図8を参照しながら説明する。
ステップ310からステップ314までは、図6のステップ301からステップ305と同手順のため、説明は省略する。AとBの発言の交代回数のカウントが完了したら過去の時間範囲Uのアップ履歴情報を参照し、AとBが同時にアップとなった時間範囲が所定のしきい値よりも大きいか判定する(ステップ315)。ここで、図9として、過去の時間範囲Uでのアップ情報履歴の一例を示す。図9を参照すると過去の時間範囲UでAとBが同時にアップ対象となった時間範囲の合計は2300であると見て取れる。仮に時間範囲の所定のしきい値が2000であるとすると、所定のしきい値よりも大きいと判定される。同時にアップ対象となった時間範囲が所定の時間範囲よりも大きいと判定されると、AとBの発言交代回数の所定のしきい値を小さくする処理が行われる(ステップ316)。尚、発言交代回数の所定のしきい値を変更する判断であるが、所定のしきい値を小さくするだけでなく大きくすることも可能である。
小さくするよう処理された発言交代回数の所定のしきい値を基に、AとBの連続した発言交代回数をカウントし、所定のしきい値よりも大きいか小さいか判定する(ステップ317)。AとBの連続した発言交代回数が所定のしきい値よりも大きいと判定されたら、アップ対象とする人物はAとBであると判断し、AとBをアップ対象とする映像の出力をするよう処理される(ステップ318)。また、ステップ315で過去の時間範囲Uのアップ履歴情報を参照し、AとBが同時にアップとなった時間範囲が所定のしきい値よりも小さいと判定されたときは、AとBの発言交代回数の所定のしきい値を変更せずに、所定のしきい値のまま判定されることになる。以上により、現在の発言者を基点にして、過去の更に長い期間のアップ履歴情報からアップ対象とする人物を判断することができる。
発言交代回数の所定のしきい値を変更することで、頻繁に発言の交代を起こす人物を予測し、素早くアップ対象と判断することが可能となる。
発言交代回数の所定のしきい値を小さくすれば、現在の発言者であるAと共にアップ対象となる人物がより多くなるように判断でき、会議等に参加している人物をより多くアップ対象とすることができる。また、発言交代回数の所定のしきい値を大きくすれば、会議等の発言の中心である人物に的を絞った形でアップ対象とする人物を制限することができる。
第3の実施例:
次に、特定の人物をアップで映し出すための判断手段104の3つ目の具体例を説明する。図10はアップで映し出す人物を判断するために、記憶手段103で記憶する所定の時間範囲での発言者ごとの発言回数を参照し、発言回数の情報からアップにする人物を判断するフローである。第3の実施例として図10を参照しながら説明する。
ステップ321からステップ322までは、図6のステップ301からステップ302と同手順のため、説明は省略する。現在の発言者であるAが特定されたら、現時点を基点として、過去の時間範囲Tでの全体の発言回数をカウントする(ステップ323)。ここで、過去の時間範囲をTとしているが、2つ目の実施例の時間範囲Uとしても良い。またT、U以外の別の時間範囲とするように定めても良い。
過去の時間範囲Tでの全体の発言回数をカウントし、所定のしきい値よりも大きいか小さいかを判定する(ステップ324)。所定のしきい値よりも小さいと判定されたら、アップ対象とする人物は現在の発言者であるAのみと判断し、Aをアップ対象とする映像の出力をするよう処理される(ステップ331)。
所定のしきい値よりも大きいと判定されたら、過去の時間範囲Tで最も発言回数の多い人物を特定する(ステップ325)。尚、実施例では過去の時間範囲Tで最も発言回数が多い人物はBであると特定することにする。次に、特定されたBの発言回数から過去の時間範囲T全体の発言回数による発言者ごとの平均発言回数を差し引いた差分を抽出し、その差分が所定のしきい値よりも大きいか小さいか判定する(ステップ326)。尚、ここでの平均発言回数は平均算出以外の中央値、および最頻値の概念から算出してもよい。
差分が所定のしきい値よりも小さいと判定されると、アップ対象とする人物は現在の発言者であるAのみと判断し、Aをアップ対象とする映像の出力をするよう処理される(ステップ331)。差分が所定のしきい値よりも大きいと判定されると、現在の発言者であるAとBの発言回数が同回数か判定する(ステップ327)。AとBの発言回数が同回数であると判定されると、Bは2番目に発言回数が多い発言者であると判定する(ステップ328)。ここで、発言回数としてはAとBは同回数であるが、現在の発言回数を考慮することで、Aが最も発言回数が多い発言者と位置付けることとする。
次に、Bの発言回数から過去の時間範囲T全体の発言回数による平均発言回数を差し引いた差分を抽出し、その差分が所定のしきい値よりも大きいか小さいか判定する(ステップ329)。差分が所定のしきい値よりも大きいと判定されると、アップ対象とする人物はAとBであると判断し、AとBをアップ対象とする映像の出力をするよう処理される(ステップ330)。
また、ステップ327で、現在の発言者であるAとBの発言回数が同回数ではなく、Bの発言回数が最も多いと判定されたときも、アップ対象とする人物はAとBであると判断し、AとBをアップ対象とする映像の出力をするよう処理される(ステップ330)。以上により、現在の発言者を基点にして、過去の所定の期間での発言者の発言回数より、アップ対象とする人物を判断することができる。また、全体の発言回数に対する平均発言回数ではなく、単純に発言回数が多い人物を優先的にアップ対象とするよう判断することも可能である。
他の実施例:
次に、他の実施例の一例として、発言者の音声、および音声に関連する情報からアップ対象とする人物を判断する一連の流れについて説明する。図11は、音声情報に着手した映像処理装置10と映像受信側端末20の一連のフローチャートである。
まず、映像処理装置10が、撮像用カメラ209などで撮像された会議等の情景の映像から音声、および音声に関する情報を取得する(ステップ8)。音声、および音声に関する情報は映像処理装置10の備えてあるマイク等から音声を受信するなどして取得する。次に取得した音声、および音声に関する情報から現在の発言者を推定する(ステップ9)。発言者の推定に関しては、マイクアレイを用いた音声の到来方向推定技術等があるが、これに限定されない。
次に現在の発言者の情報を基に、表示装置212にアップで映し出す人物を判断する(ステップ10)。判断のプロセスについては前述した3つの実施例を、例えば発言者の音声を基に推定された情報を用いてそれぞれの実施例に適用させたり、2つ以上の実施例を組み合わせて適用させるなど、様々な応用パターンを構成することが可能である。
アップ対象判断により、アップ対象とする人物がいないと判断されると、表示装置212に映し出す映像にアップ処理を行うことはない。ここで、アップ対象の人物がいないと判断される時は、基点となる現時点の発言者がいない場合などである。アップ対象判断により、アップ対象とする人物がいると判断されると、表示装置212に映し出す映像にアップ対象と判断された人物がアップで映し出されるように処理される(ステップ11)。アップ対象の人物がいないと判断された場合には表示装置212に映し出す映像として撮像用カメラ209で取得した映像そのものが映し出されるようにアップ処理がスキップされる。
アップ処理された映像もしくはアップ処理のされていない映像は、映像信号として映像出力I/Fなどを介して表示装置212を備える受信側端末へ送信される(ステップ12)。受信側端末はアップ処理された映像もしくはアップ処理のされていない映像による映像信号を受信し(ステップ13)、液晶ディスプレイ型モニタやプロジェクタなどの表示装置212に受信した映像信号に基づいた映像を表示する(ステップ14)。以上が音声情報を基にアップ対象となる人物を判定する一連の流れとなる。
以上、本実施を好適な形態で行う実施例を説明した。ここでは特定の具体例を示して説明を行ったが、特許請求の範囲の趣旨及び範囲から逸脱しない範囲で、本具体例の様々な修正、および形態変更などが可能である。例えば、本実施例では人物のアップ対象と判断する方法については、映像による人物の位置、顔情報を用いた顔認証技術と、マイクアレイを用いた音声の到来方向推定技術で各々の判断方法を記載しているが、これらの技術を組み合わせてアップ対象とする人物を判断するようにしてもよい。
映像信号のノイズにより正しく人物の位置を特定できなかったり、また、音声についても音声信号のノイズ等で正しい音声信号が受信できなかったりする可能性を考慮して、映像と音声の双方で本発明が実施できれば、アップ対象とする人物の判断の精度はより向上するという利点がある。
また、アップ対象の判断方法として第1の実施例〜第3の実施例で別々に説明したが、これらの方法を組み合わせて複数の判断手法を持たせることも可能である。判断基準を複数設けることで、アップ対象とする人物の判断の精度がより向上することが考えられる。また、本実施例では、アップ対象とする人物は2名とする一例で説明をしたが、3人、4人と更に大多数の人数をアップ対象と判断させることも可能である。
本発明により、映像切り替えの激しい動きを抑制しつつ、現在の発言者を確実にアップで映すことができるものと確信する。また、現在の発言者だけでなく、テレビ会議等で、主たる発言者の推測に基づいて、現在の発言者と一緒にアップ表示させる人物を特定することが可能となる。
本願発明を実現できるような構成であれば、用いる装置の具備する内容、および装置の数量などは本実施例に限定されない。
101 映像取得手段
102 推定手段
103 記憶手段
104 判断手段
特開平4−309087号公報 特開2007−053513号公報 特開2009−038466号公報 特開平1−140884号公報 特開平5−111020号公報

Claims (11)

  1. 被写体を連続的に撮影し、映像情報を取得する映像取得手段と、
    前記映像情報に含まれる複数の人物から発言している人物を推定する推定手段と、
    前記推定手段より前記映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶する記憶手段と、
    前記発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断する判断手段と、
    を備え、
    前記判断手段は、過去の所定の時間範囲において前記第1の人物に続いて発言者となった回数が第1のしきい値より大きい人物を、前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    ことを特徴とする映像処理装置。
  2. 前記記憶手段は、前記発言者が拡大表示された拡大表示履歴を更に記憶し、
    前記判断手段は、過去の所定の時間範囲の前記拡大表示履歴を参照し、前記第1の人物とともに拡大表示された人物との拡大表示された時間範囲に応じて前記第1のしきい値を増減させる、
    ことを特徴とする請求項に記載の映像処理装置。
  3. 被写体を連続的に撮影し、映像情報を取得する映像取得手段と、
    前記映像情報に含まれる複数の人物から発言している人物を推定する推定手段と、
    前記推定手段より前記映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶する記憶手段と、
    前記発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断する判断手段と、
    を備え、
    前記判断手段は、過去の所定の時間範囲における各発言者の発言回数を参照し、前記発言回数の合計値が第2のしきい値よりも大きい人物を前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    ことを特徴とする映像処理装置。
  4. 前記判断手段は、過去の所定の時間範囲における各発言者の発言回数を参照し、前記発言回数の合計値が前記第2のしきい値よりも大きかつ前記発言回数と各発言者の発言回数の平均との差分が第3のしきい値よりも大きい人物を、前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    ことを特徴とする請求項に記載の映像処理装置。
  5. 前記推定手段は、前記映像情報に含まれる複数の人物の位置を顔の座標情報として認識し、前記発言者と推定した人物の顔の座標情報を出力する、
    ことを特徴とする請求項1ないしのいずれか1項に記載の映像処理装置。
  6. 音声到来方向の情報を含む音声情報を取得する音声取得手段を更に備え、
    前記推定手段は、前記音声情報から発言している人物を推定する、
    ことを特徴とする請求項1ないしのいずれか1項に記載の映像処理装置。
  7. 前記推定手段は、前記映像情報と前記音声情報から発言している人物を推定する、
    ことを特徴とする請求項に記載の映像処理装置。
  8. 被写体を連続的に撮影し、映像情報を取得するステップと、
    前記映像情報に含まれる複数の人物から発言している人物を推定するステップと、
    前記映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶するステップと、
    前記発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断するステップと、
    を備え、
    判断する前記ステップでは、過去の所定の時間範囲において前記第1の人物に続いて発言者となった回数が第1のしきい値より大きい人物を、前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    映像処理方法。
  9. 被写体を連続的に撮影し、映像情報を取得するステップと、
    前記映像情報に含まれる複数の人物から発言している人物を推定するステップと、
    前記映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶するステップと、
    前記発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断するステップと、
    を備え、
    判断する前記ステップでは、過去の所定の時間範囲における各発言者の発言回数を参照し、前記発言回数の合計値が第2のしきい値よりも大きい人物を、前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    映像処理方法。
  10. 被写体を連続的に撮影し、映像情報を取得する手段と、
    前記映像情報に含まれる複数の人物から発言している人物を推定する手段と、
    前記映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶する手段と、
    前記発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断する手段と、
    を備え、
    判断する前記手段は、過去の所定の時間範囲において前記第1の人物に続いて発言者となった回数が第1のしきい値より大きい人物を、前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    映像処理システム。
  11. 被写体を連続的に撮影し、映像情報を取得する手段と、
    前記映像情報に含まれる複数の人物から発言している人物を推定する手段と、
    前記映像情報における発言者と推定された人物を、発言履歴情報として該映像情報が取得された時間ごとに記憶する手段と、
    前記発言履歴情報を基に、現在の発言者である第1の人物とともに拡大表示の対象とすべき人物を判断する手段と、
    を備え、
    判断する前記手段は、過去の所定の時間範囲における各発言者の発言回数を参照し、前記発言回数の合計値が第2のしきい値よりも大きい人物を、前記第1の人物とともに拡大表示の対象とすべき人物と判断する、
    映像処理システム。
JP2016111652A 2015-08-03 2016-06-03 映像処理装置、映像処理方法、及び映像処理システム Active JP6651989B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/218,655 US10264210B2 (en) 2015-08-03 2016-07-25 Video processing apparatus, method, and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015153451 2015-08-03
JP2015153451 2015-08-03

Publications (2)

Publication Number Publication Date
JP2017034658A JP2017034658A (ja) 2017-02-09
JP6651989B2 true JP6651989B2 (ja) 2020-02-19

Family

ID=57986318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016111652A Active JP6651989B2 (ja) 2015-08-03 2016-06-03 映像処理装置、映像処理方法、及び映像処理システム

Country Status (2)

Country Link
US (1) US10264210B2 (ja)
JP (1) JP6651989B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059902A (ja) * 2015-09-14 2017-03-23 株式会社リコー 情報処理装置、プログラム、画像処理システム
US20180232566A1 (en) * 2017-02-15 2018-08-16 Cisco Technology, Inc. Enabling face recognition in a cognitive collaboration environment
US11302317B2 (en) * 2017-03-24 2022-04-12 Sony Corporation Information processing apparatus and information processing method to attract interest of targets using voice utterance
CN110770688B (zh) 2017-06-12 2024-08-02 索尼公司 信息处理系统、信息处理方法及程序
CN109492506A (zh) * 2017-09-13 2019-03-19 华为技术有限公司 图像处理方法、装置和系统
US10902050B2 (en) * 2017-09-15 2021-01-26 International Business Machines Corporation Analyzing and weighting media information
EP3739573B1 (en) * 2018-01-12 2023-06-28 Sony Group Corporation Information processing device, information processing method, and program
KR102453084B1 (ko) * 2018-04-17 2022-10-12 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102460538B1 (ko) * 2018-05-28 2022-10-28 삼성에스디에스 주식회사 영상 품질 조정 방법과 이를 수행하기 위한 단말 및 중계 서버
JP7100824B2 (ja) * 2018-06-20 2022-07-14 カシオ計算機株式会社 データ処理装置、データ処理方法及びプログラム
CN109068089A (zh) * 2018-09-30 2018-12-21 视联动力信息技术股份有限公司 一种会议数据生成方法和装置
CN109561273A (zh) * 2018-10-23 2019-04-02 视联动力信息技术股份有限公司 识别视频会议发言人的方法和装置
EP3892001A4 (en) * 2018-12-03 2022-12-28 Smule, Inc. AUGMENTED REALITY FILTERS FOR CAPTURED AUDIOVISUAL PERFORMANCES
US20220122573A1 (en) * 2018-12-03 2022-04-21 Smule, Inc. Augmented Reality Filters for Captured Audiovisual Performances
CN111918127B (zh) * 2020-07-02 2023-04-07 影石创新科技股份有限公司 一种视频剪辑方法、装置、计算机可读存储介质及相机
JP2022076384A (ja) * 2020-11-09 2022-05-19 シャープ株式会社 画像形成装置、制御方法、及びプログラム
US20220415003A1 (en) * 2021-06-27 2022-12-29 Realtek Semiconductor Corp. Video processing method and associated system on chip
US11606508B1 (en) * 2021-11-18 2023-03-14 Motorola Mobility Llc Enhanced representations based on sensor data

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01140884A (ja) 1987-11-27 1989-06-02 Fujitsu Ltd 電子会議における話者自動検出方法
JPH04309087A (ja) 1991-04-08 1992-10-30 Ricoh Co Ltd ビデオカメラ制御装置
JPH05111020A (ja) 1991-10-17 1993-04-30 Matsushita Electric Ind Co Ltd テレビ会議用画面切替制御装置
JPH11352987A (ja) 1998-06-04 1999-12-24 Toyota Motor Corp 音声認識装置
JP2001067098A (ja) 1999-08-25 2001-03-16 Sanyo Electric Co Ltd 人物検出方法と人物検出機能搭載装置
JP4310916B2 (ja) * 2000-11-08 2009-08-12 コニカミノルタホールディングス株式会社 映像表示装置
JP2003299051A (ja) * 2002-03-29 2003-10-17 Matsushita Electric Ind Co Ltd 情報出力装置および情報出力方法
JP4595364B2 (ja) 2004-03-23 2010-12-08 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US7894637B2 (en) 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person
JP4356663B2 (ja) * 2005-08-17 2009-11-04 ソニー株式会社 カメラ制御装置および電子会議システム
US7664246B2 (en) * 2006-01-13 2010-02-16 Microsoft Corporation Sorting speakers in a network-enabled conference
JP4957119B2 (ja) * 2006-08-11 2012-06-20 富士通東芝モバイルコミュニケーションズ株式会社 情報処理装置
US8289363B2 (en) * 2006-12-28 2012-10-16 Mark Buckler Video conferencing
WO2009004731A1 (ja) * 2007-07-05 2009-01-08 Panasonic Corporation 画像音声通信装置及び画像表示方法
JP4458128B2 (ja) 2007-07-31 2010-04-28 ソニー株式会社 方向検出装置、方向検出方法および方向検出プログラム、ならびに、方向制御装置、方向制御方法および方向制御プログラム
JP2010192956A (ja) 2009-02-16 2010-09-02 Nikon Corp 撮像装置および話し手認識方法
US20130083151A1 (en) * 2011-09-30 2013-04-04 Lg Electronics Inc. Electronic device and method for controlling electronic device
US20130169742A1 (en) * 2011-12-28 2013-07-04 Google Inc. Video conferencing with unlimited dynamic active participants
JP2014165565A (ja) * 2013-02-22 2014-09-08 Hitachi Ltd テレビ会議装置およびシステムおよび方法
US9641585B2 (en) * 2015-06-08 2017-05-02 Cisco Technology, Inc. Automated video editing based on activity in video conference

Also Published As

Publication number Publication date
US10264210B2 (en) 2019-04-16
JP2017034658A (ja) 2017-02-09
US20170041556A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6651989B2 (ja) 映像処理装置、映像処理方法、及び映像処理システム
US9179098B2 (en) Video conferencing
US20190222950A1 (en) Intelligent audio rendering for video recording
JP2023540908A (ja) オーディオ処理方法および電子デバイス
US9959881B2 (en) Voice processing device, audio and video output apparatus, communication system, and sound processing method
US11405584B1 (en) Smart audio muting in a videoconferencing system
JP2019220848A (ja) データ処理装置、データ処理方法及びプログラム
TW201801069A (zh) 語音資訊的接收方法、系統及裝置
US9319513B2 (en) Automatic un-muting of a telephone call
US20240096343A1 (en) Voice quality enhancement method and related device
JP2017118364A (ja) コミュニケーションシステム、コミュニケーション装置およびコミュニケーションプログラム
JP2011061450A (ja) 会議通信システム、会議通信方法及びプログラム
CN111988704A (zh) 声音信号处理方法、装置以及存储介质
JP4244416B2 (ja) 情報処理装置および方法、並びに記録媒体
JP2001057672A (ja) 通信装置および方法、並びに媒体
JP6550951B2 (ja) 端末、ビデオ会議システム、及びプログラム
JP2007251355A (ja) 対話システム用中継装置、対話システム、対話方法
JP2004248125A (ja) 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体
JP5432805B2 (ja) 発言機会均等化方法、発言機会均等化装置及び発言機会均等化プログラム
TWI687917B (zh) 語音系統及聲音偵測方法
EP2575362A1 (en) Multimodal mobile video telephony
CN111182256A (zh) 一种信息处理方法及服务器
JP6813176B2 (ja) 音声抑制システム及び音声抑制装置
JP2015043507A (ja) 情報処理装置、通信システムおよびプログラム
CN110913056A (zh) 通信的转录的基于事件的呈现

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R151 Written notification of patent or utility model registration

Ref document number: 6651989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151