JP6967735B1 - 信号処理装置及び信号処理システム - Google Patents

信号処理装置及び信号処理システム Download PDF

Info

Publication number
JP6967735B1
JP6967735B1 JP2021003745A JP2021003745A JP6967735B1 JP 6967735 B1 JP6967735 B1 JP 6967735B1 JP 2021003745 A JP2021003745 A JP 2021003745A JP 2021003745 A JP2021003745 A JP 2021003745A JP 6967735 B1 JP6967735 B1 JP 6967735B1
Authority
JP
Japan
Prior art keywords
image
subject
sound source
signal processing
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021003745A
Other languages
English (en)
Other versions
JP2022108638A (ja
Inventor
宏樹 春日井
真一 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021003745A priority Critical patent/JP6967735B1/ja
Application granted granted Critical
Publication of JP6967735B1 publication Critical patent/JP6967735B1/ja
Priority to US17/571,469 priority patent/US11665391B2/en
Publication of JP2022108638A publication Critical patent/JP2022108638A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視聴者に好適な、映像の切り替えを無人で実現する信号処理装置等を提供する。【解決手段】信号処理装置は、被写体が存在する空間で同時に取得された映像及び音声の各信号を受け取る入力部と、映像に含まれる被写体像を認識し、各被写体が存在する第1の領域を決定する画像処理部と、音声に含まれる音源を認識し、空間中の、各音源が存在する第2の領域を決定する音声処理部と、第1の領域及び第2の領域を用いて被写体と音源の位置が一致する被写体及び音源の組み合わせを決定し、組み合わせに対応する、出力すべき被写体像を選択的に決定する制御部とを備えている。【選択図】図3

Description

本開示は、信号処理装置及び信号処理システムに関する。
ライブ配信を行う場合、放送局で用いられる高価な機材を使用しないで、PCやデジタルカメラなどの安価な機材を用いて実現することが広く普及している。また複数の映像から配信する映像を切り替えて送信する必要があるが人手を必要とするため、その為の省力化も求められている。
特許文献1は、配信する機材を安価で実現し、配信の切り替えをワンマンで実現する技術を開示している。
特開2003−324698号公報
特許文献1では、配信の切り替えを省力化する技術を提供するが、このことを無人化することは実現できていない。ライブ配信に限らず、映像の切り替えを視聴者に好適に無人で実現する技術が広く求められている。
本開示は、視聴者に好適な映像の切り替えを無人で実現する信号処理装置及び信号処理システムを提供する。
本開示の信号処理装置は、被写体が存在する空間で同時に取得された映像及び音声の各信号を受け取る入力部と、映像に含まれる被写体像を認識し、各被写体が存在する第1の領域を決定する画像処理部と、音声に含まれる音源を認識し、空間中の、各音源が存在する第2の領域を決定する音声処理部と、第1の領域及び第2の領域を用いて被写体と音源の位置が一致する被写体及び音源の組み合わせを決定し、組み合わせに対応する、出力すべき被写体像を選択的に決定する制御部とを備える。
また本開示の信号処理システムは、上記の信号処理装置と、空間を撮影して映像の信号を生成する複数の撮像装置と、信号処理装置及び複数の撮像装置から出力される映像のうちから選択的に決定された被写体像を含む映像を選択するためのスイッチャとを備え、信号処理装置は、空間に含まれる複数の被写体を撮影し、複数の被写体像を含む映像を生成する撮像部を含み、複数の撮像装置の各々は、個別の被写体を撮影し、個別の被写体像を含む映像を生成し、信号処理装置の制御部は、組み合わせに含まれる被写体像を選択的に出力するようにスイッチャを制御する。
本開示によれば、視聴者に好適な映像の切り替えを無人で実現する信号処理装置及び信号処理システムを提供することができる。
信号処理装置の実施形態1である撮像装置のハードウェア構成図 空間Sで演奏を行うバンドの3名のメンバーと、撮像装置とを示す図 図1に示す信号処理装置の処理の手順を示すフローチャート 空間Sで演奏を行うバンドの3名のメンバーと、撮像装置とを示す図 音源の位置を映像上の領域に対応付ける処理を説明するための図 信号処理装置による表示態様の切り替え処理の手順を示すフローチャート 表示優先度の割当処理(図6のステップS30)の詳細な処理手順を示すサブルーチンのフローチャート 撮像装置が撮影した映像の一例を示す図 楽曲の間奏時等において、ボーカルを担当するメンバーが歌唱を停止したときの映像の表示例を示す図 表示装置上で、演奏中のメンバー及びギターの被写体像をズームアップしたときの表示例を示す図 表示装置上で、演奏中のメンバー及びキーボードの被写体像をズームアップしたときの表示例を示す図 2名のメンバーが歌唱及び演奏を継続し、ギターを演奏するメンバーが演奏を中断したときの被写体像の表示例を示す図 信号処理システムの実施形態2の第1の構成例を示すハードウェア図 信号処理システムの実施形態2の第2の構成例を示すハードウェア図 図13aにかかる信号処理システム300の設置例を示す図 4以上のマイクロフォン素子が円環状に配置されたマイクロフォンアレイの構成例を示す図 マイクロフォンアレイの正面図 映像上の距離が予め定められた値以内である複数の被写体像を選択的に切り出したときの表示例を示す図 信号処理装置となる半導体チップの構成を示すハードウェア構成図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。
(実施の形態1)
実施の形態1では、本開示に係る信号処理装置の一例として、クロップ技術に基づいて表示または配信する被写体像を切り出すデジタルカメラについて説明する。
〔1.構成〕
図1は、信号処理装置の第1の実施形態である撮像装置100のハードウェア構成図である。図1に示す撮像装置100は、例えばコンパクトデジタルカメラである。以下、撮像装置100の構成要素の概要を説明する。
本実施形態の撮像装置100は、イメージセンサ115と、画像処理エンジン120と、表示モニタ130と、コントローラ135とを備える。さらに、撮像装置100は、バッファメモリ125と、カードスロット140と、フラッシュメモリ145と、操作部150と、通信モジュール160とを備える。また、撮像装置100は、マイクロフォン161と、マイク用のアナログ/デジタル(A/D)コンバータ165と、音声処理エンジン170とを備える。また、撮像装置100は、例えば光学系110及びレンズ駆動部112を備える。
光学系110は、フォーカスレンズ、ズームレンズ、絞り、シャッタ等を含む。フォーカスレンズは、イメージセンサ115上に形成される被写体像のフォーカス状態を変化させるためのレンズである。ズームレンズは、光学系で形成される被写体像の倍率を変化させるためのレンズである。フォーカスレンズ等は、それぞれ1枚又は複数枚のレンズで構成される。
レンズ駆動部112は、光学系110におけるフォーカスレンズ等を駆動する。レンズ駆動部112はモータを含み、コントローラ135の制御に基づいてフォーカスレンズを光学系110の光軸に沿って移動させる。レンズ駆動部112においてフォーカスレンズを駆動する構成は、DCモータ、ステッピングモータ、サーボモータ、または超音波モータなどで実現できる。
イメージセンサ115は、光学系110を介して形成された被写体像を撮像して、撮像データを生成する。撮像データは、イメージセンサ115による撮像画像を示す画像データを構成する。イメージセンサ115は、所定のフレームレート(例えば、60フレーム/秒)で新しいフレームの画像データを生成する。イメージセンサ115における、撮像データの生成タイミングおよび電子シャッタ動作は、コントローラ135によって制御される。イメージセンサ115は、CMOSイメージセンサ、CCDイメージセンサ、またはNMOSイメージセンサなど、種々のイメージセンサを用いることができる。
イメージセンサ115は、動画像、静止画像の撮像動作、スルー画像の撮像動作等を実行する。スルー画像は主に動画像であり、ユーザが例えば静止画像の撮像のための構図を決めるために表示モニタ130に表示される。スルー画像、動画像及び静止画像は、それぞれ本実施形態における撮像画像の一例である。イメージセンサ115は、本実施形態における撮像部の一例である。
撮像装置100は、レンズ110等の光学系を介して入射した外部の光をイメージセンサ115で受けて、例えば4K解像度の映像を取得し、表示、記録等の処理を行うことができる。「4K解像度の映像」とは、例えば4096画素×2160画素または3840画素×2160画素の映像である。「映像」は、典型的には動画像であるが、静止画を排除しない。
画像処理エンジン120は、イメージセンサ115から出力された撮像データに対して各種の処理を施して画像データを生成したり、画像データに各種の処理を施して、表示モニタ130に表示するための画像を生成したりする。各種処理としては、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、伸張処理等が挙げられるが、これらに限定されない。画像処理エンジン120は、ハードワイヤードな電子回路で構成してもよいし、プログラムを用いたマイクロコンピュータ、プロセッサなどで構成してもよい。
画像処理エンジン120は被写体像認識部122を有している。被写体像認識部122は、映像に対して画像認識処理を行うことによって、例えばバンドの映像を撮影する場合には、人の顔、人の体、楽器といった被写体像の検出機能を実現する。被写体像認識部122は、例えば、人の顔、人の体などの画像および/または輪郭の形状、ギター、キーボード、ドラムス等の楽器の画像の形状と各形状の名称とを教師データとして機械学習が行われた学習済みモデルを利用して、映像内の被写体像を検出する。あるいは被写体像認識部122は、ルールベースの画像認識処理によって人の顔、人の体、楽器のそれぞれの検出を行い、検出情報を出力してもよい。検出は、種々の画像認識アルゴリズムによって行われてもよい。検出情報は、被写体像の検出結果を示しており、本実施形態では被写体像が存在する映像内の領域を特定する情報または当該領域を代表する画素の位置を特定する情報である。これにより、被写体像認識部122は、被写体像が人の顔、人の体、何の楽器であるのかを検出できる。
表示モニタ130は、種々の情報を表示することが可能な装置であり、例えば、液晶ディスプレイデバイスまたは有機ELデバイスであり得る。
操作部150は、撮像装置100の外装に設けられた操作釦や操作レバー等のハードキーの総称であり、使用者による操作を受け付ける。操作部150は、例えば、レリーズ釦、モードダイヤル、タッチパネル、カーソルボタン、ジョイスティックを含む。操作部150はユーザによる操作を受け付けると、ユーザ操作に対応した操作信号をコントローラ135に送信する。
コントローラ135は、映像に含まれる1以上の被写体像のうちの1つまたは複数を選択的に表示するための制御信号を生成する。制御信号は、例えば画像処理エンジン120に、映像に含まれる1つまたは複数の被写体像の切り出しを指示する信号である。またはコントローラ135は、1つまたは複数の被写体像を選択的に表示した映像を生成し、出力する。そのためにコントローラ135は、画像処理エンジン120及び音声処理エンジン170から、それぞれ、映像内の被写体が存在する領域を特定する情報、及び、各音源が存在する位置または方向を示す情報を受け取る。
コントローラ135はCPU等を含み、CPUがプログラム(ソフトウェア)を実行することで本開示にかかる処理、機能を実現する。コントローラ135は、CPUに代えて、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサを含んでもよい。すなわち、コントローラ135は、CPU、MPU、GPU、DSU、FPGA、ASIC等の種々のプロセッサで実現できる。コントローラ135は1つまたは複数のプロセッサで構成してもよい。また、コントローラ135は、画像処理エンジン120および/または音声処理エンジン170などと共に1つの半導体チップで構成されてもよい。本明細書では、コントローラ135を「制御部」と呼ぶことがある。
バッファメモリ125は、画像処理エンジン120やコントローラ135のワークメモリとして機能する記録媒体である。バッファメモリ125は、DRAM(Dynamic Random Access Memory)などにより実現される。フラッシュメモリ145は不揮発性の記録媒体である。また、図示していないが、コントローラ135は各種の内部メモリを有してもよく、例えばROMを内蔵してもよい。ROMには、コントローラ135が実行する様々なプログラムが記憶されている。また、コントローラ135は、CPUの作業領域として機能するRAMを内蔵してもよい。
カードスロット140は、着脱可能なメモリカード142が挿入される手段である。カードスロット140は、メモリカード142を電気的及び機械的に接続可能である。メモリカード142は、内部にフラッシュメモリ等の記録素子を備えた外部メモリである。メモリカード142は、画像処理エンジン120で生成される画像データなどのデータを格納できる。
通信モジュール160は、通信規格IEEE802.11またはWi−Fi規格等に準拠した通信を行う通信モジュール(回路)である。撮像装置100は、通信モジュール160を介して、他の機器と通信することができる。撮像装置100は、通信モジュール160を介して、他の機器と直接通信を行ってもよいし、アクセスポイント経由で通信を行ってもよい。通信モジュール160は、インターネット等の通信ネットワークに接続可能であってもよい。
マイクロフォン161は、音を収音する収音部の一例である。マイクロフォン161は、収音した音声を電気信号であるアナログ信号に変換して出力する。例えば図2及び図4に示す例では、撮像装置100は、3つのマイクロフォン素子161L,161C及び161Rを含む。マイクロフォン161は、2つ又は4つ以上のマイクロフォン素子から構成されてもよい。本明細書では、複数のマイクロフォン素子161C、161L及び161Rを「マイクロフォンアレイ161」と呼ぶことがある。
マイクロフォン用のA/Dコンバータ165は、マイクロフォン161からのアナログ信号をデジタル信号の音声データに変換する。マイクロフォン161及びマイクロフォン用のA/Dコンバータ165は、本実施形態における音声取得部の一例である。なお、マイクロフォン161は、撮像装置100の外部にあるマイクロフォン素子を含んでもよい。この場合、撮像装置100は音声取得部として、外部のマイクロフォン161に対するインタフェース回路を備える。音声処理エンジン170は、マイクロフォン用のA/Dコンバータ165等の音声取得部から出力された音声データを受信して、受信した音声データに対して種々の音声処理を施す。音声処理エンジン170は、本実施形態における音声処理部の一例である。
本実施形態の音声処理エンジン170は、例えば図1に示すように、ビーム形成部172と、ゲイン調整部174と、音源認識部176とを備える。ビーム形成部172は、音声の指向性を制御する機能を実現する。ゲイン調整部174は、入力される音声データに、例えばコントローラ135によって設定される収音ゲインを乗じる乗算処理を行って、音声を増幅する。音声の指向性を制御する機能を実現する方法は上述の通りである。ゲイン調整部174は、入力の音声データに負のゲインを乗じて音声を抑圧する処理を行ってもよい。ゲイン調整部174はさらに、入力される音声データの周波数特性及びステレオ特性を変化させる機能を有してもよい。
音源認識部176は、音声に対して音源認識処理を行うことによって、例えばバンドの音声の場合には、人の声、ギター、キーボード、ドラムス等の楽器の音といった音源の種別の検出機能を実現する。音源認識部176は、例えば、人の声、ギター、キーボード、ドラムス等の楽器の音と各音源の名称とを教師データとして機械学習が行われた学習済みモデルを利用して、音声内の音源の種別を検出する。これにより、音源認識部176は、音源が人の声であるのか、ギターであるのか、キーボードであるのかを検出できる。
以上のように本実施形態では、撮像装置100を信号処理装置として構成した例を示した。当該信号処理装置は、少なくともA/Dコンバータ165及びイメージセンサ115の各出力を受け取る入力部(不図示)と、画像処理エンジン120と、音声処理エンジン170と、コントローラ135とを備えていればよい。なお、信号処理装置がA/Dコンバータ165のA/D変換機能を有する場合には、信号処理装置は、マイクロフォン161から出力されるアナログ信号を受け取る入力部を有していればよい。
〔2.動作〕
図2は、空間Sで演奏を行うバンドの3名のメンバー1a〜1cと、撮像装置100とを示している。例えば、ライブハウスにおいて、三脚に固定された撮像装置100を用いて撮影した映像をライブ配信する。説明の便宜上、撮像装置100の背面から正面に向かう方向を基準として右手方向が+X方向になり、鉛直上向きが+Y方向になり、撮像装置100からみてバンドが存在する奥行き方向が+Z方向になるよう、直交するXYZ座標を設定している。
以下、撮像装置100が図2に示すバンドを撮影してライブ配信する例を説明する。
図3は、カメラ100の複数の被写体像を選択的に切り替えて出力する処理の手順を示すフローチャートである。
ステップS1において、画像処理エンジン120及び音声処理エンジン170は、イメージセンサ115及びマイクロフォン161から、映像信号及び音声信号をそれぞれ取得する。例えば、撮像装置100は、イメージセンサを利用してバンドを撮影しつつ、複数のマイクロフォン素子161C、161L及び161R(マイクロフォンアレイ161)を利用して空間Sを流れる音声・音楽を取得する。
ステップS2において、画像処理エンジン120は、映像に含まれる被写体像を認識し、映像内の、各被写体像が存在する領域を決定する。
図2の例では、撮像装置100は、バンドのメンバー1a〜1cを被写体として撮影する。撮像装置100はさらに、ギター1d及びキーボード1e等の楽器も被写体として撮影する。本実施形態では、撮影した映像に含まれる人物の像、楽器の像、及び楽器を演奏する人物の像、すなわち人物及び楽器の複合像、を総称して「被写体像」と呼ぶことがある。
撮像装置100は、機械学習が行われた画像処理エンジン120を用いて画像処理を行い、映像全体の中に存在する1以上の被写体像をそれぞれ認識し、各被写体像が存在する映像内の領域を決定する。「領域」は被写体像が存在する複数の画素の集合として捉えられるが、当該被写体像を代表する1つの画素を「画素領域」として捉えてもよい。「画素領域」は映像上の互いに直交する縦座標軸及び横座標軸によって表現される「座標」として特定され得る。
ステップS3において、音声処理エンジン170は、音声に含まれる音源を認識し、各音源の指向性に関する指向性情報に基づいて、空間中の各音源の位置または方向を決定する。
本実施形態では、音声を発する人、及び音を発する楽器を総称して「音源」と呼ぶ。
音声を取得すると、撮像装置100は、空間S中の、各音源が存在する位置または方向を決定する。図4は、撮影範囲と対応付けた、音源が存在する方向Da、Db及びDcの例を示している。方向Da、Db及びDcは、典型的にはある直線によって定まる「1つの方向」であるが、本明細書では、「方向」は、当該直線を含む「範囲」として規定されてもよい。
各音源が存在する位置または方向を決定する方法は種々考えられる。例えばマイクロフォンアレイ161を利用する場合、撮像装置100は、マイクロフォン素子161C、161L及び161Rの各々が同じ音を受けた際の、各マイクロフォン素子へ音が到達した時刻のわずかな差の関係を利用して、各音源が存在する位置または方向を推定することができる。このような推定は、到来方向推定として既知の技術である。または、マイクロフォン素子161C、161L及び161Rの各々に予めどの方向/位置の音声を拾うかが設定されている場合には、どのマイクロフォン161C、161L及び161Rが音を取得したかによって、各音源が存在する位置または方向を決定することができる。あるいは周知の方法によってマイクロフォンアレイ161の収音指向性の制御を行う場合にも、空間S中の、各音源が存在する位置または方向を決定することができる。いずれの例においても、音源の位置または方向を決定するための情報、例えばマイクロフォンアレイの物理的な配置の情報、マイクロフォン毎の指向性の情報、時刻及び指向性の情報、が予め判明している。本明細書ではこのような情報を「指向性情報」と呼ぶ。撮像装置100は指向性情報を利用して、各音源が存在する位置または方向を決定することができる。
ステップS4において、コントローラ135は、各音源が存在する位置または方向を、映像上の領域に変換する。本実施形態では、撮像装置100は、被写体像の数と音源の数との一致/不一致を利用して処理を行う。当該処理を行うため、撮像装置100は、各音源が存在する位置または方向を、映像上の領域に変換する処理を行う。
図5は、音源の位置を映像上の領域に対応付ける処理を説明するための図である。図2に示される空間Sが撮影され、種々の被写体像が、例えば、外部の表示装置230上に表示されている。外部の表示装置230は、ライブ配信先等に設けられた表示モニタであり得る。なお、以下では被写体像が表示装置230に表示されるとして説明するが、これは一例である。被写体像は、撮像装置100の表示モニタ130上に表示されてもよい。
図4に例示した各音源の方向Da、Db及びDcは、例えばY軸に平行な垂線で映像を3分割したときの、右側領域Ra、中央領域Ca及び左側領域La(図5)にそれぞれ対応付けし得る。この処理を本明細書では、3次元の空間S上で定まる位置または方向を、2次元の映像上の領域に「変換」すると言う。
ステップS5において、コントローラ135は、映像上で領域が互いに重複する被写体像及び音源の組み合わせを決定する。そしてステップS6において、コントローラ135は、組み合わせに含まれる被写体像を選択的に出力するための制御信号を生成する。生成された制御信号は、例えばコントローラ135から出力されて通信モジュール160に送信され、撮像装置100の出力インタフェースとしての通信モジュール160を介して外部に出力される。上述のように、本例では、出力先はライブ配信先の装置とするが、カメラ100の表示モニタ130でもよい。
次に、図6及び図7を参照しながら、表示態様を切り替えるための信号処理装置(本実施形態では撮像装置100)の処理をより具体的に説明する。
図6は、図3のステップS5及びS6の表示態様の切り替え処理の手順を示すフローチャートである。ステップS5に相当するステップS5’(図6)において、コントローラ135は、映像上で領域が互いに重複する被写体像及び音源の組み合わせとして、被写体像の領域と、音源が存在する領域との一致数(N)を算出する。
図8は、撮像装置100が撮影した映像の一例を示している。表示装置230には、バンドのメンバー1a〜1c、ギター1d及びキーボード1eの各々に対応する被写体像2a〜2eが表示されている。図8の映像撮影時、メンバー1aは歌唱中であり、メンバー1bはギター1bを演奏しており、メンバー1cはキーボード1eを演奏している。表示装置230には、メンバー1a〜1c及び楽器2d及び2eの5つの被写体像が表示されている。撮像装置100は、互いに近い位置、より具体的には予め定められた画像上の距離の範囲内、に存在する2つの被写体像2b及び2dの組み合わせを、1つの被写体像として取り扱う。2つの被写体像2c及び2eの組み合わせも同様に1つの被写体像として取り扱う。つまり、図8の例では、撮像装置100は最終的に3つの被写体像を認識する。そして、歌唱、ギターの演奏及びキーボードの演奏が行われているため、このときの音源の数は3つである。
先に図5を参照しながら説明した変換処理によれば、撮像装置100は以下の事項を認識し得る。すなわち、3つの音源が映像上の左側領域La、中央領域Ca及び右側領域Raに存在していること、映像上の3つの被写体像、すなわち被写体像2a、被写体像2b及び2dの組み合わせ、及び、被写体像2c及び2eの組み合わせ、は、それぞれ中央領域Ca、右側領域Ra、及び左側領域Laに存在していること、である。本実施形態では、被写体像が存在する領域の数と、音源が存在する領域の数とが一致している数を「一致数」と呼ぶ。
図6のステップS25において、コントローラ135は、一致数と被写体数とが等しいか否か、さらに、等しくない場合には、Nが1か、2以上かを判定する。一致数と被写体数とが等しい場合には処理はステップS26に進む。一致数と被写体数とが等しくなく、Nが1の場合には処理はステップS28に進む。一致数と被写体数とが等しくなく、Nが2以上の場合には処理はステップS30に進む。
ステップS26において、コントローラ135は、全体映像を表示するため制御信号を生成する。一致数と被写体数とが等しいので、全被写体が音源として音声または音を出力していることを意味しているからである。
上述の例では、一致数は3であり、被写体像が存在する領域の数と同じである。これにより、撮像装置100は、全ての被写体が音源として発声または演奏を行っていると判定し得る。撮像装置100は、3つの被写体像が全て含まれるよう映像を表示する。
続くステップS27において、コントローラ135は音源情報が変化したか否かを判定する。音源情報とは、例えば音源の数に関する情報である。この処理は、間奏等でボーカルが歌唱をやめたこと等により、音源の数が減ったことを検出する処理である。音源情報の変化は音声処理エンジン208によって検出され得る。以下の処理における音源情報の変化の検出も同様に音声処理エンジン208によって行われてもよい。音源情報が変化していない場合には処理はステップS26に戻り、変化した場合には処理はステップS5’に戻る。
一方、ステップS28に進んだ場合は、音源である被写体が1つのみ存在する状況を意味している。ステップS28において、コントローラ135は、後述するクロップ技術を用いて唯一の音源である被写体の像をズームアップして表示する。このような表示態様は「スポット表示」とも呼ばれる。
その後、ステップS29において、ステップS27と同様に、音源情報が変化したか否かを判定する。音源情報の変化は、音源が増加する場合も含まれ得るし、減少する場合も含まれ得る。音源情報が変化していない場合には処理はステップS28に戻り、変化した場合には処理はステップS5’に戻る。
図9は、楽曲の間奏時等において、ボーカルを担当するメンバー1aが歌唱を停止したときの映像の表示例である。メンバー1aの被写体像2aの閉じられた口が模式的に示されている。このとき、表示装置230上には3つの被写体像が表示されているが、音源の数は2つに減少している。これは図4の例における方向Dbに存在していた音源、換言すると図5の映像の中央領域Caに対応付けられていた音源が検出されなくなったことを意味する。
ステップS25において、被写体像が存在する領域の数が3であるのに対し、一致数が2であると判定すると ステップS30に進む。
ステップS30において、コントローラ135は、各被写体像に異なる表示優先度i(i=1〜N)を割り当てる。一旦決定された表示優先度iは、図6の処理がステップS5’に戻り再びステップS30が実行されるまでは固定である。ステップS30の処理の詳細は後述する。
ステップS31において、コントローラ135は、まず表示優先度「1」の被写体像をスポット表示する。例えば、コントローラ135は、被写体像を図10に示されるような表示方法でスポット表示する。
本実施形態において、組み合わせに含まれる被写体像が人物の像であり、かつ音源が人物である場合には、コントローラ135は、映像から当該人物の像を切り出す。一方、組み合わせに含まれる被写体像が人物及び楽器の複合像であり、かつ音源が楽器である場合には、コントローラ135は、映像から当該複合像を切り出す。
スポット表示させるため、撮像装置100は被写体像を選択的に表示するための制御信号を生成して表示装置230に送る。当該制御信号は、被写体であり、かつ音源でもある被写体像を選択的に表示させるための信号である。例えば当該制御信号は、被写体であり、かつ音源でもある被写体像を含む映像領域を指定する信号である。当該制御信号を受け取った撮像装置100内の画像処理エンジン120は、指定された映像領域を切り出して表示装置230に表示する。
図10は、表示装置230上で、演奏中のメンバー1b及びギター1dの被写体像2b及び2d(複合像)をズームアップしたときの表示例である。例えば撮像装置100は、クロップ技術を用いて4K解像度の映像のうちから、被写体像2b及び2dを含む、縦横の画素数が各半分の大きさの2K解像度の映像を切り出して表示装置230上に表示する。
図6のステップS32において、コントローラ135は、ステップS27及びS29と同様に、音源情報が変化したか否かを判定する。音源情報の変化は、音源が増加する場合も含まれ得るし、減少する場合も含まれ得る。音源情報が変化していない場合には処理はステップS33に進み、変化した場合には処理はステップS5’に戻る。
ステップS33において、コントローラ135は、予め定められた所定時間が経過したか否かを判定する。所定時間、例えば7秒、が経過したときは、処理はステップS34に進む。所定時間がまだ経過していないときは、処理はステップS31に戻り、その被写体像のスポット表示が継続される。
ステップS34からS36は、表示される被写体像の優先度を切り替えた結果、一通りスポット表示が行われた場合には、表示優先度を1にリセットしてその順に再度スポット表示を切り替える処理である。
ステップS34において、コントローラ135は、表示優先度を1つインクリメントし、表示対象になる被写体像を切り替える。
ステップS35において、コントローラ135は表示優先度が一致数(N)より大きいか否かを判定する。表示優先度が一致数(N)より大きい場合には、処理はステップS36に進み、それ以外の場合には、処理はステップS31に戻る。
ステップS36において、コントローラ135は表示優先度iを1に再設定し、処理はステップS31に戻る。
ステップS35及びS36は、表示優先度が、スポット表示すべき数である一致数Nよりも大きくなった場合には、スポット表示すべき被写体像が一通り表示されたといえるから、表示優先度が1の被写体像から再度スポット表示を繰り返す、ということを意味している。
図10に示すように、被写体像2b及び2dを一定時間表示すると、コントローラ135の処理はステップS33を経てステップS31に戻る。そしてステップS31の処理により、コントローラ135は、撮像装置100は表示する被写体像を切り替える。図11は、表示装置230上で、演奏中のメンバー1c及びキーボード1eの被写体像2c及び2eをズームアップしたときの表示例である。間奏が終わり、ボーカルを担当するメンバー1aが歌唱を再開すると、撮像装置100は表示の切り替えを終了する。具体的には、音源情報が変化したことをコントローラ135が検出すると(ステップS32)、表示の切り替えを終了する。処理はステップS5’に戻り、コントローラ135は再びステップS25を実行する。ステップS5’及びS25において、コントローラ135が、全ての被写体が音源として発声または演奏を行っていることを検出し、被写体数が3であり、かつ一致数が3になったと判定すると、処理はステップS25からステップS26に進み、コントローラ135は再び、図8に示すように、全員を含む映像を表示する。
図12は、メンバー1a及び1cが歌唱及び演奏を継続し、ギター1dを演奏するメンバー1bが演奏を中断したときの被写体像2a〜2eの表示例である。先の例と同様、この例の場合も、撮像装置100は3つの被写体像に対して音源の数が2つになったことを検出する。そして撮像装置100は、被写体像を選択的に表示するための制御信号を生成して、被写体であり、かつ音源でもある被写体像、すなわち被写体像2aと、被写体像2c及び2eの組み合わせ、を選択的に表示する。
図7は、図6の表示優先度の割当処理(ステップS30)の詳細な処理手順を示すサブルーチンのフローチャートである。本例では、図2の例に示すようなバンドを想定したときの例を説明する。具体的には、ボーカルが最初にスポット表示されるよう、表示優先度を設定する。
ステップS40において、コントローラ135は、映像の中の被写体像にボーカルが存在するか否かを判定する。
ステップS41において、ボーカルが存在しないため、存在する被写体像に適宜、表示優先度「1」〜「N」を割り当てる。「適宜」とは「任意に」という意味であり、例えば音のレベルが大きい被写体順、存在する位置が映像の中心に近い被写体順、存在する位置が撮像装置から近い被写体順などである。なお、撮像装置からの距離は周知の測距装置等を用いて計測できる。
さらにステップS42において、コントローラ135は、ボーカルが複数か否かを判定する。
ステップS43において、コントローラ135は、ボーカルの被写体像に表示優先度「1」を割り当てる。
ステップS44において、コントローラ135は、ボーカル以外の被写体像が存在するか否かを判定する。存在する場合には処理はステップS45に進む。存在しない場合には、サブルーチンが終了し、処理はステップS31に戻る。
ステップS45において、コントローラ135は、ボーカル以外の被写体像に適宜、表示優先度「2」〜「N」を割り当てる。これにより、サブルーチンが終了し、処理はステップS31に戻る。
ステップS46において、コントローラ135は、センター位置のボーカルに表示優先度「1」を割り当て、それ以外のボーカルに、適宜表示優先度「2」〜「M」を割り当てる。
ステップS47において、コントローラ135は、ボーカル以外の被写体像が存在するか否かを判定する。存在する場合には処理はステップS48に進む。存在しない場合には、サブルーチンが終了し、処理はステップS31に戻る。
ステップS48において、コントローラ135は、ボーカル以外の被写体像に適宜、表示優先度「M+1」〜「N」を割り当てる。
以上の処理により、各被写体像に表示優先度を割り当てることができる。
図2から図12を参照しながら、バンドの複数のメンバーを被写体として識別しつつ、発声中または演奏中の被写体を、個々にズームアップする例を説明した。個々にズームアップする例に関しては、例えば1つの会議室に複数の参加者が集まり、参加者が任意のタイミングで発言する会議システムに応用することで、発言者を選択的にズームアップすることができる。これにより、遠隔地からの参加者(視聴者)に好適な視聴環境を提供することが可能になる。発言中の参加者が自動的にズームアップされるため、遠隔地の参加者は、会議室で現在誰が発言しているかを映像上の口の動き等から探す必要がないからである。数名または一人の参加者のみが発言する機会が多いと考えられる会議では、その発言者が自動的にスポット表示されるため、非常に視聴しやすくなると言える。
〔3.効果等〕
本実施形態において、撮像装置100として実現された信号処理装置は、入力部と、画像処理部の一例の画像処理エンジン120と、音声処理部の一例である音声処理エンジン170と、制御部の一例のコントローラ135とを備える。入力部は、被写体が存在する空間Sで同時に取得された映像及び音声の各信号を受け取る。画像処理エンジン120は、映像に含まれる被写体像を認識し、各被写体が存在する第1の領域を決定する。音声処理エンジン170は、音声に含まれる音源を認識し、空間中の、各音源が存在する第2の領域を決定する。コントローラ135は、第1の領域及び第2の領域を用いて被写体と音源の位置が一致する被写体及び音源の組み合わせを決定し、組み合わせに対応する、出力すべき被写体像を選択的に決定する。これにより、被写体と音源の位置が一致する被写体、つまり、音を発している被写体を選択することができる。例えばコントローラ135はそのような被写体を表示装置に表示させることにより、視聴者に好適な映像の切り替えを無人で実現することができる。
本実施形態において、被写体像及び音源の組み合わせが1つの組み合わせである場合、コントローラ135は、当該1つの組み合わせに対応する、出力すべき被写体像を選択的に決定する。例えばコントローラ135は、音を発している唯一の被写体を選択し、当該被写体を表示装置に表示させることにより、視聴者に好適な映像の切り替えを無人で実現することができる。
本実施形態において、被写体像及び音源の組み合わせが複数の組み合わせである場合であって、かつ、複数の組み合わせが、全ての被写体及び全ての音源の組み合わせではない場合には、コントローラ135は、当該複数の組み合わせの各々に対応する被写体像を所定の優先順位で出力する。コントローラ135が、音を発している複数の被写体を所定の優先順位で表示させることにより、視聴者に好適な映像の切り替えを無人で実現することができる。
本実施形態において、画像処理エンジン120及び音声処理エンジン170は、映像及び音声の変化に追従して、各被写体が存在する第1の領域、及び、各音源が存在する第2の領域を更新する。コントローラ135は、更新された第1の領域及び第2の領域を用いて被写体と音源の位置が一致する被写体像及び音源の組み合わせを更新し、更新された後の組み合わせに対応する被写体像を選択的に出力する。被写体の位置及び音源の位置が移動した場合であっても、コントローラ135は、音を発している被写体を選択し、当該被写体を表示装置に表示させることが可能になる。これにより、視聴者に好適な映像の切り替えを無人で実現することができる。
本実施形態において、被写体像及び音源の組み合わせが複数の組み合わせである場合であって、かつ、複数の組み合わせが、全ての被写体及び全ての音源の組み合わせである場合には、コントローラ135は、全ての被写体に対応する全ての被写体像を出力する。全ての被写体が音を発している場合には、全ての被写体像を含む映像を出力することができる。
本実施形態において、コントローラ135は、映像から、組み合わせに含まれる被写体像の切り出しを指示する。例えば画像処理エンジン120は当該指示に従って被写体像を切り出すことができる。これにより、切り出された被写体像を選択的に表示させることができる。
本実施形態において、組み合わせに含まれる被写体像が人物の像であり、かつ音源が人物である場合には、コントローラ135は、映像から当該人物の像を切り出す。一方、組み合わせに含まれる被写体像が人物及び楽器の複合像であり、かつ音源が楽器である場合には、コントローラ135は、映像から当該複合像を切り出す。被写体像が音を発する人物の像であるのか、人物及び楽器の複合像であるのかに応じて、切り出す像を変えることにより、視聴者に好適な映像の切り替えを無人で実現することができる。
本実施形態の信号処理装置は、選択的に決定された組み合わせに含まれる被写体像の信号を外部に出力する出力部をさらに備える。これにより、例えば外部の表示装置230等に選択的に当該被写体像を出力することができる。
(実施形態2)
実施形態1では、信号処理装置を図1の撮像装置100を用いて実現した。実施形態2では、複数の撮像装置(例えば、図1の撮像装置100)を有し、そのうちの少なくとも1台に信号処理装置の役目を担わせる信号処理システム、または、複数の撮像装置と、それらとは別に信号処理装置とを設けた信号処理システムを説明する。当該信号処理システムは、視聴者に好適な映像の切り替えを無人で実現する。本実施の形態では、実施形態1と同様に図3、図6、図7を用いて映像の表示形態の切り替え処理を実現する。
図13aは、信号処理システム300の本実施形態の構成を示すハードウェア図である。図13aの例では、信号処理装置220aと複数の撮像装置220b〜220nの各々が撮影を行って映像を出力する。すなわち信号処理装置220a及び撮像装置220b〜220nの各々の構成は、例えば図1に示す撮像装置100の構成と同じである。
信号処理装置220aと撮像装置220b〜220nの各々から出力された映像はスイッチャ240に入力される。また、マイクロフォンアレイ161から出力された音声もスイッチャ240に入力されている。ただし、音声に関しては、マイクロフォンアレイ161から直接信号処理装置220aに送信されてもよい。
信号処理システム300では、信号処理装置220aが「マスタカメラ」として設定されている。以下、図13aの例に関しては、信号処理装置220aを「マスタカメラ220a」または「撮像装置220a」とも記述する。マスタカメラ220aから出力された映像は、本開示による判定処理、すなわち被写体像の数と音源の数との一致/不一致の判定処理を行う際の被写体像の検出に用いられる。つまり、マスタカメラの映像は、表示する被写体像を全て含む。マスタカメラは図2に示される撮像装置100に相当する。
他の撮像装置220b〜220nは、予め撮影する空間S内の領域または範囲が予め決定されており、かつ、マスタカメラ220aは当該範囲を示す情報を予め保持している。
本実施形態では、マスタカメラ220aが実施形態1で説明した上記の判定処理を実施する信号処理装置の役目を担っている。上述の判定処理の結果、外部の表示装置230に出力・表示する被写体像を所定の優先順位に従って切り替える際に、マスタカメラ220aからの制御信号に従ってスイッチャ240によって選択された、撮像装置220a〜220nのいずれかの映像が採用される。つまりマスタカメラ220a(撮像装置220a)の映像も採用される対象になり得る。
なお、図13aでは、外部のマイクロフォンアレイ161を使用せず、マスタカメラ220a内のマイクロフォンアレイ161を使用してもよい。
さらにマスタカメラ220aが信号処理装置の役目を担わない構成も可能であり、図13bの構成がその一例である。図13bの信号処理システム300では信号処理装置200と複数の撮像装置220a〜220nを用いている。このときマスタカメラである撮像装置220aは空間S内の被写体全体が撮影されるように設置されている。マイクロフォン161の音声と撮像装置220aの映像は信号処理装置220に入力される。信号処理装置220は制御信号をスイッチャ240に送信し、撮像装置220a〜220nからスイッチャ240に入力された任意の映像を表示装置230に出力する。
図14は、図13aにかかる信号処理システム300の設置例を示す図である。図14は、+Y側(天井側)から−Y側(床側)を見下ろした構成を示している。なお図14では表示装置230の図示は省略した。
典型的には、撮像装置220a〜220nは空間S内に固定的に設置されており、各々の視野も固定されている。マスタカメラ220aは、バンドのメンバー1a〜1cをすべて撮影可能な画角に、各撮像装置220b〜220nはバンドの各メンバーを撮影可能な画角に設定している。マスタカメラ220aは、各撮像装置220b〜220nが空間S内のどの領域を視野に含むかの情報は予め取得しておくことができる。マスタカメラ220aは、撮像装置220a〜220nが取得した映像を利用して、どの領域の被写体像を出力するかを決定することができる。
例えば図10に示す被写体像2bを選択的に表示装置230に表示させる場合、マスタカメラ220aの信号処理装置は、撮像装置220b〜220nのうち、予め被写体像2bが存在する領域が設定された撮像装置、例えば撮像装置220bを決定し、スイッチャ240に制御信号を送信する。スイッチャ240は制御信号を受信して、撮像装置220bから出力された映像を表示装置230に送信する。これにより、図10に示す例と同様の領域を含む被写体像を表示することができる。このように、スイッチャ240を利用して、所定の撮像装置220bから出力された映像を表示装置230に送信することを、スイッチャ240を制御する、と言う。
本実施形態においては、信号処理装置が出力する制御信号は、4K映像のうちから2K映像を切り出すための信号ではなく、所望の被写体像を撮影している撮像装置の映像の選択を指示する信号である。
切り替えて表示すべき被写体像が複数存在する場合には、所定の時間経過後に、マスタカメラ220aの信号処理装置はスイッチャ240に制御信号を送信し、他の撮像装置の映像を表示装置230に送信させる。例えば図11に示す被写体像2cを選択的に表示装置230に表示させる場合、マスタカメラ220aの信号処理装置は、撮像装置220kを決定し、スイッチャ240に制御信号を送信する。これにより、被写体像2cを含む映像に切り替えることができる。
(他の実施形態)
上記の実施形態1では、信号処理装置は撮像装置100を用いて実現され、実施形態2では、信号処理装置は撮像装置220aを用いて実現された。信号処理装置は、撮像機能を有していなくてもよい。図18に示すように、撮像装置100の構成のうち、コントローラ135、画像処理エンジン120、音声処理エンジン170は、信号処理装置200として例えば1つの半導体チップとして実装することが可能である。信号処理装置200は、信号処理装置200の外部からデータを受け付けるための入力インタフェース(入力部)202aと、外部へデータを出力するための出力インタフェース(出力部)202bとを有していてもよい。入力インタフェース202a及び出力インタフェース202bは、例えば信号入出力のための端子またはピンであり得る。なお、コントローラ135から信号が出力される場合には、出力インタフェース202bは、コントローラ135が有する端子またはピンであり得る。図18に示す該半導体チップを撮像装置100以外の別の装置に組み込むことで信号処理装置を構成することも可能である。
また、上記の各実施形態では、撮像装置の一例としてデジタルカメラを用いて信号処理装置について説明したが、本実施形態の信号処理装置は、レンズ交換式であるデジタルカメラであってもよい。また、本開示の思想は、デジタルカメラのみならず、ムービーカメラであってもよいし、カメラ付きの携帯電話或いはPCのような種々の撮像機能を有する電子機器でも実現可能である。
上記の実施形態1では、クロップ技術に基づいて表示または配信する被写体像を切り出す信号処理装置として撮像装置100について説明したが、これに限定されない。例えば、信号処理装置としては、マイクロフォンアレイ161やイメージセンサ115を備えている必要はなく、外部のイメージセンサとマイクロフォンアレイによって、同一の空間で同時に取得された映像及び音声の各信号を入力インタフェースで受け取り、選択的に決定された組み合わせに含まれる被写体像の信号を出力インタフェースで外部に出力する構成でもよい。
上記の各実施形態では、図6、図7を用いて映像の表示形態の切り替え処理を説明した、他の表示形態の切り替えを実現するアルゴリズムを用いてよい。
第1及び第2の実施形態では、被写体座標及び音源座標は2次元座標であるが、これに限定されることはなく、3次元座標であってもよい。例えば、被写体座標の深さ方向の座標は、カメラのDFD技術を使うか、又は、距離センサを使用することで求められる。また、音源座標の深さ方向の座標は、同一音源からの音が複数のマイクに到達するときの時間差を利用して求められる。このような方法で求めた深さ方向(Z軸方向)の座標を含む、被写体座標及び音源座標を夫々3次元座標にすれば、各被写体が存在する第1の領域と、各音源が存在する第2の領域とが重なる被写体及び音源の組み合わせをより高精度に決定することができる。ここでいう「領域」は、3次元の空間S内の座標値に限られず、空間S内の平面、例えば地面、の一部、または、空間S内の部分空間を含む。撮像装置100は、被写体の位置及び音源の位置を空間S内の3次元で表された領域として取得し処理してもよい。
また上記の各実施の形態では、ボーカル又は演奏者を単独で選択的に出力・表示することにしたが、これに限定されない。例えば、以下のような選択的な表示方法も考えられる。つまり、撮像装置100は、図10及び図11の例のような、選択的に表示される被写体像同士の映像上の距離を算出し、当該距離が予め定められた値以内かどうかを判定する。当該距離が予め定められた値以内である場合には、撮像装置100は、それらの複数の被写体像をまとめて切り出して選択的に表示するための制御信号を生成する方法である。
図17は、映像上の距離が予め定められた値以内である被写体像2aと、被写体像2c及び2eの組み合わせとを選択的に切り出したときの表示例である。撮像装置100は、個々の被写体像を順次表示する処理だけでなく、映像上、相対的に近い距離範囲内に存在するといえる場合には、まとめて切り出して表示することができる。これにより、種々の映像効果を与えながら、視聴者に好適な視聴環境を提供することができる。
図17の例は、歌唱中のメンバー1aの被写体像2aの表示範囲と、被写体像2c及びキーボードの被写体像2eとを組み合わせた被写体像の表示範囲とが相違していることも示している。具体的には、被写体像2aに関しては、被写体像2aの顔の部分を含む上半身が表示されているのに対して、被写体像2c及び2eを組み合わせた被写体像は、それらの全体を含む範囲が表示されている。このように相違させる理由は、音源として表示すべき被写体像の大きさが異なっているからである。音源が歌唱中のメンバー1aである場合、本質的な音源はメンバー1aの口であり、視聴者は概ね顔の部分または顔と上半身とをズームアップして視聴したいと考えられる。一方、音源がメンバー1c及びキーボード1eである場合、本質的な音源はキーボード1eであり、キーボード1eとキーボード1eを演奏するメンバー1cとを視聴したいと考えられる。つまり、音源の種別は、その音源を有する被写体像を表示する大きさを決定する指標となり得る。
そこで、本変形例では、音源の種別を判定した後、音源の種別に応じて、表示される被写体像の範囲および/またはサイズを変えることとした。具体的には、音声処理エンジン208は、音声に含まれる音源の種別を判定する。コントローラ135は、音声処理エンジン208が判定した音源の種別に応じた表示方法で、組み合わせに含まれる被写体像を表示するための制御信号を生成する。例えば、音源が人である場合には、コントローラ135は、音源に対応する人の被写体像のうち、人の口を含む頭部または上半身を少なくとも含むような表示方法を採用する。音源がギターである場合には、コントローラ135は、ギター及びギター奏者を含む被写体像を少なくとも含むような表示方法を採用する。
この処理は図10及び図11に限られず、図8及び図9の例においても適用可能である。例えば図8の例の場合には、取得した音声・楽器の音から、音源がギター1dであると判断されると、ギター1dの被写体像2dが少なくとも含まれる大きさで、表示装置230に表示される。
上記の実施形態1では、図2及び図4に示す3つのマイクロフォン素子を利用する例を示したが、これに限定されない。利用するマイクロフォンアレイによっては、音源の位置をより詳細に検出することができる構成がある。図15及び図16は、4以上のマイクロフォン素子162が円環状に配置されたマイクロフォンアレイ161の構成例を示している。
図15はマイクロフォンアレイ161の正面図であり、図16は空間Sへのマイクロフォンアレイ161の設置例を示す図である。例えばマイクロフォンアレイ161は天井に配置され、出力される音声の信号は有線または無線で撮像装置100に送信される。
図2及び図4に示す3つのマイクロフォン素子を利用する例と比較すると、円環状に配置された4以上のマイクロフォン素子162の出力音声信号を利用すると、より正確に音声または楽器の音の到来方向を推定できる。より多くのマイクロフォン素子162を利用するほど、到来方向の推定精度はより正確になる。換言すると、音源が存在する位置または方向はより正確に特定され得る。例えば図16に示されるように、マイクロフォン素子162の数を増やすことにより、空間Sにおいて歌唱及び演奏を行っているバンドのメンバー1a〜1cのそれぞれの位置Sa〜Scを特定することができる。位置を決定する処理は、到達時間差等の上述した技術のいずれかを用いて実現される。
また、上記の各実施形態では、バンド演奏の映像をライブ配信する例を説明したが、これに限られず、被写体が演奏したり、発話する場合の他のユースケースに広く適用できる。一例として、オーケストラ演奏におけるライブ配信や演劇におけるライブ配信にも適用できる。他の例として、保育園、幼稚園、小学校等でのユースケースにも広く適用できる。学校等では、ひな壇に並んで合唱する機会が多い。父母がビデオカメラ(撮像装置)で録画した映像を、後に自宅のテレビで視聴する場合、本開示にかかる技術を用いると家族(視聴者)に好適な視聴環境を提供することが可能になる。例えば、歌を唱っている生徒を順次切り出して表示したり、ひな壇上の右半分に立って歌を唱っている複数の生徒をまとめて切り出して表示したりできる。
本実施形態では、クロップ技術を用いて4K解像度の映像から2K解像度の映像を切り出してズームアップする例を挙げた。特定の被写体像のズームアップ表示に代えて、その被写体像以外の被写体像および/または背景画像の輝度を落としたり、被写界深度を変更してボケを出したり、透明度を与えつつグレーアウトさせることで、その被写体像を相対的に強調して、すなわち選択的に、表示することが可能である。よって、被写体像を選択的に表示できるのであれば、切り抜き以外の表示態様でも本開示の範疇である。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、音声を取得しながら撮像を行う技術を採用するシステム等において適用可能である。
1a〜1e 被写体
2a〜2e 被写体像
100 撮像装置
161 マイクロフォンアレイ
135 コントローラ
120 画像処理エンジン
170 音声処理エンジン
161 マイクロフォンアレイ
200 信号処理装置
202a 入力インタフェース
202b 出力インタフェース

Claims (11)

  1. 被写体が存在する空間で同時に取得された映像及び音声の各信号を受け取る入力部と、
    前記映像に含まれる被写体像を認識し、各被写体が存在する第1の領域を決定する画像処理部と、
    前記音声に含まれる音源を認識し、前記空間中の、各音源が存在する第2の領域を、前記第1の領域とは独立して決定する音声処理部と、
    前記第1の領域及び前記第2の領域を用いて前記被写体の位置と前記音源の位置との一致及び不一致を判定し、互いの位置が一致する被写体及び音源の組み合わせを決定し、前記組み合わせに対応する、出力すべき前記被写体像を選択的に決定する制御部と
    を備える信号処理装置。
  2. 前記被写体像及び前記音源の組み合わせが1つの組み合わせである場合、
    前記制御部は、前記1つの組み合わせに対応する、出力すべき被写体像を選択的に決定する、請求項1に記載の信号処理装置。
  3. 前記被写体像及び前記音源の組み合わせが複数の組み合わせである場合であって、かつ、前記複数の組み合わせが、全ての被写体及び全ての音源の組み合わせではない場合には、
    前記制御部は、前記複数の組み合わせの各々に対応する被写体像を所定の優先順位で出力する、請求項1に記載の信号処理装置。
  4. 前記画像処理部及び前記音声処理部は、前記映像及び前記音声の変化に追従して、前記各被写体が存在する第1の領域、及び、前記各音源が存在する第2の領域を更新し、
    前記制御部は、前記更新された前記第1の領域及び前記第2の領域を用いて前記被写体と前記音源の位置が一致する前記被写体像及び前記音源の組み合わせを更新し、更新された後の前記組み合わせに対応する前記被写体像を選択的に出力する、請求項1に記載の信号処理装置。
  5. 前記被写体像及び前記音源の組み合わせが複数の組み合わせである場合であって、かつ、前記複数の組み合わせが、全ての被写体及び全ての音源の組み合わせである場合には、
    前記制御部は、前記全ての被写体に対応する全ての被写体像を出力する、請求項1に記載の信号処理装置。
  6. 前記制御部は、前記映像から、前記組み合わせに含まれる前記被写体像の切り出しを指示する、請求項1に記載の信号処理装置。
  7. 前記組み合わせに含まれる前記被写体像が人物の像であり、かつ前記音源が前記人物である場合には、前記制御部は、前記映像から前記人物の像の切り出し、
    前記組み合わせに含まれる前記被写体像が人物及び楽器の複合像であり、かつ前記音源が前記楽器である場合には、前記制御部は、前記映像から前記複合像を切り出す、請求項6に記載の信号処理装置。
  8. 前記被写体像及び前記音源の組み合わせが2つの組み合わせである場合、前記制御部は、前記2つの組み合わせに含まれる2つの被写体像が存在する領域間の距離が予め定められた値以内である場合には、前記2つの被写体像切り出す、請求項6に記載の信号処理装置。
  9. 選択的に決定された前記組み合わせに含まれる前記被写体像の信号を外部に出力する出力部を備える、請求項1に記載の信号処理装置。
  10. 前記制御部は、前記組み合わせの数に応じて出力すべき前記被写体像を選択的に決定する、請求項1に記載の信号処理装置。
  11. 請求項1に記載の信号処理装置と、
    前記空間を撮影して前記映像の信号を生成する複数の撮像装置と、
    前記信号処理装置及び前記複数の撮像装置から出力される前記映像のうちから前記選択的に決定された被写体像を含む映像を選択するためのスイッチャと
    を備え、
    前記信号処理装置は、前記空間に含まれる複数の被写体を撮影し、複数の被写体像を含む映像を生成する撮像部を含み、
    前記複数の撮像装置の各々は、個別の被写体を撮影し、個別の被写体像を含む映像を生成し、
    前記信号処理装置の制御部は、前記組み合わせに含まれる前記被写体像を選択的に出力するように前記スイッチャを制御する、信号処理システム。
JP2021003745A 2021-01-13 2021-01-13 信号処理装置及び信号処理システム Active JP6967735B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021003745A JP6967735B1 (ja) 2021-01-13 2021-01-13 信号処理装置及び信号処理システム
US17/571,469 US11665391B2 (en) 2021-01-13 2022-01-08 Signal processing device and signal processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021003745A JP6967735B1 (ja) 2021-01-13 2021-01-13 信号処理装置及び信号処理システム

Publications (2)

Publication Number Publication Date
JP6967735B1 true JP6967735B1 (ja) 2021-11-17
JP2022108638A JP2022108638A (ja) 2022-07-26

Family

ID=78509615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003745A Active JP6967735B1 (ja) 2021-01-13 2021-01-13 信号処理装置及び信号処理システム

Country Status (2)

Country Link
US (1) US11665391B2 (ja)
JP (1) JP6967735B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115174959A (zh) * 2022-06-21 2022-10-11 咪咕文化科技有限公司 视频3d音效设置方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007122729A1 (ja) * 2006-04-18 2007-11-01 Hitachi, Ltd. 通信システム、通信装置及び音源方向特定装置
US20150146078A1 (en) * 2013-11-27 2015-05-28 Cisco Technology, Inc. Shift camera focus based on speaker position
JP2015159461A (ja) * 2014-02-25 2015-09-03 カシオ計算機株式会社 通信装置、通信システム、画像切り出し方法及びプログラム
JP2017059902A (ja) * 2015-09-14 2017-03-23 株式会社リコー 情報処理装置、プログラム、画像処理システム
JP2017092675A (ja) * 2015-11-09 2017-05-25 株式会社リコー 情報処理装置、会議システム、情報処理方法およびプログラム
US9674453B1 (en) * 2016-10-26 2017-06-06 Cisco Technology, Inc. Using local talker position to pan sound relative to video frames at a remote location
US20190215540A1 (en) * 2016-07-22 2019-07-11 Dolby International Ab Network-based processing and distribution of multimedia content of a live musical performance

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331827A (ja) 1998-05-12 1999-11-30 Fujitsu Ltd テレビカメラ装置
JP2003324698A (ja) 2002-04-30 2003-11-14 Sony Corp 配信装置および方法
JP4426623B2 (ja) * 2005-06-01 2010-03-03 パイオニア株式会社 映像配信装置、映像配信方法、映像配信プログラム、および記録媒体
JP2010541415A (ja) * 2007-09-28 2010-12-24 グレースノート インコーポレイテッド マルチメディアイベントのプレゼンテーションの合成
US20090094375A1 (en) * 2007-10-05 2009-04-09 Lection David B Method And System For Presenting An Event Using An Electronic Device
JP2010154260A (ja) 2008-12-25 2010-07-08 Victor Co Of Japan Ltd 音声識別装置
US9495591B2 (en) * 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme
KR20140114238A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 오디오와 결합된 이미지 표시 방법
WO2015168901A1 (en) * 2014-05-08 2015-11-12 Intel Corporation Audio signal beam forming
JP6467736B2 (ja) 2014-09-01 2019-02-13 株式会社国際電気通信基礎技術研究所 音源位置推定装置、音源位置推定方法および音源位置推定プログラム
US10839309B2 (en) * 2015-06-04 2020-11-17 Accusonus, Inc. Data training in multi-sensor setups
JP2019087973A (ja) * 2017-11-10 2019-06-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2020085101A1 (ja) 2018-10-23 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 画像処理装置と画像処理方法およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007122729A1 (ja) * 2006-04-18 2007-11-01 Hitachi, Ltd. 通信システム、通信装置及び音源方向特定装置
US20150146078A1 (en) * 2013-11-27 2015-05-28 Cisco Technology, Inc. Shift camera focus based on speaker position
JP2015159461A (ja) * 2014-02-25 2015-09-03 カシオ計算機株式会社 通信装置、通信システム、画像切り出し方法及びプログラム
JP2017059902A (ja) * 2015-09-14 2017-03-23 株式会社リコー 情報処理装置、プログラム、画像処理システム
JP2017092675A (ja) * 2015-11-09 2017-05-25 株式会社リコー 情報処理装置、会議システム、情報処理方法およびプログラム
US20190215540A1 (en) * 2016-07-22 2019-07-11 Dolby International Ab Network-based processing and distribution of multimedia content of a live musical performance
US9674453B1 (en) * 2016-10-26 2017-06-06 Cisco Technology, Inc. Using local talker position to pan sound relative to video frames at a remote location

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115174959A (zh) * 2022-06-21 2022-10-11 咪咕文化科技有限公司 视频3d音效设置方法及装置
CN115174959B (zh) * 2022-06-21 2024-01-30 咪咕文化科技有限公司 视频3d音效设置方法及装置

Also Published As

Publication number Publication date
US20220224970A1 (en) 2022-07-14
JP2022108638A (ja) 2022-07-26
US11665391B2 (en) 2023-05-30

Similar Documents

Publication Publication Date Title
KR102465227B1 (ko) 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
US8218033B2 (en) Sound corrector, sound recording device, sound reproducing device, and sound correcting method
JP2009156888A (ja) 音声補正装置及びそれを備えた撮像装置並びに音声補正方法
JP7347597B2 (ja) 動画編集装置、動画編集方法及びプログラム
US10079996B2 (en) Communication system, communication device, and communication method
JP2008193196A (ja) 撮像装置および指定音声出力方法
CN114827517A (zh) 一种投影视频会议系统及视频投影方法
JP7428763B2 (ja) 情報取得システム
JP5939444B2 (ja) 撮像装置
CN101729771B (zh) 相机、声音播放装置以及声音播放方法
JP5930276B2 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP2009065587A (ja) 音声記録装置及び音声再生装置
JP6967735B1 (ja) 信号処理装置及び信号処理システム
JP2007213282A (ja) 講演者支援装置および講演者支援方法
JP4501037B2 (ja) 通信制御システムと通信装置および通信方法
CN115315939A (zh) 信息处理装置、信息处理方法和程序
JP6835205B2 (ja) 撮影収音装置、収音制御システム、撮影収音装置の制御方法、及び収音制御システムの制御方法
WO2010061791A1 (ja) 映像制御装置およびそれを備えた撮像装置、表示装置
JP2014072661A (ja) 映像音声記録再生装置
JP6274251B2 (ja) 画像データ発生装置及び画像データ発生方法
JP7111202B2 (ja) 収音制御システム及び収音制御システムの制御方法
US20220286733A1 (en) Video output method and video output apparatus
JP2016208200A (ja) 撮像装置
JP2000244885A (ja) 画像撮影装置、画像撮影方法、記憶媒体、テレビ会議システム
KR101630614B1 (ko) 동영상 강의 콘텐츠 제작 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210118

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R151 Written notification of patent or utility model registration

Ref document number: 6967735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151