JP2022048722A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2022048722A
JP2022048722A JP2020154705A JP2020154705A JP2022048722A JP 2022048722 A JP2022048722 A JP 2022048722A JP 2020154705 A JP2020154705 A JP 2020154705A JP 2020154705 A JP2020154705 A JP 2020154705A JP 2022048722 A JP2022048722 A JP 2022048722A
Authority
JP
Japan
Prior art keywords
display mode
captured image
image data
sound
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020154705A
Other languages
English (en)
Other versions
JP6853909B1 (ja
Inventor
政明 厚地
Masaaki Atsuji
隆一郎 林
Ryuichiro Hayashi
純一 鶴見
Junichi Tsurumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020154705A priority Critical patent/JP6853909B1/ja
Application granted granted Critical
Publication of JP6853909B1 publication Critical patent/JP6853909B1/ja
Publication of JP2022048722A publication Critical patent/JP2022048722A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】動画の内容に適した表示態様でユーザが複数の動画を閲覧できる画像処理装置、画像処理方法及びプログラムを提供する。【解決手段】サーバ1は、複数のカメラが所定の領域を撮影することにより生成した複数の撮像画像データと、複数のカメラが所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部131と、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部132と、表示態様決定部132が決定した表示態様で特定撮像画像データを表示させるように複数の撮像画像データをユーザ端末のディスプレイに表示させる表示制御部133と、を有する。【選択図】図4

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、画像を表示できる端末に、複数のカメラで撮像された複数の動画を配信し、端末に複数の動画を表示する技術が知られている(例えば、特許文献1を参照)。
特開平11-289531号公報
従来の端末は、予め定められた配置またはユーザが任意に設定した配置で複数の動画を表示していた。しかし、複数の動画のいずれかにおいて、多くのユーザの関心を惹きつけるような注目シーンが配信されても、ユーザが他の動画を閲覧している場合には当該シーンを見逃してしまう可能性があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、動画の内容に適した表示態様でユーザが複数の動画を閲覧できるようにすることを目的とする。
本発明の第1の態様の画像処理装置は、複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、を有する。
前記表示態様決定部は、前記少なくとも一部の音データに対応する音の大きさに基づいて前記表示態様を決定してもよい。
前記表示態様決定部は、前記複数の音データのうち、第1音データに対応する第1撮像画像データの前記表示部における表示サイズよりも、第1音データよりも大きな音に対応する第2音データに対応する第2撮像画像データの前記表示サイズが大きくなるように前記表示態様を決定してもよい。
前記表示態様決定部は、前記少なくとも一部の音データに対応する音の内容に基づいて前記表示態様を決定してもよい。
前記撮像画像データには、当該撮像画像データが取得された撮像装置を識別するための撮像装置識別情報が含まれており、前記音データには、当該音データが取得された装置を識別するための音声装置識別情報が含まれており、前記表示態様決定部は、前記音識別情報と、前記複数の撮像装置それぞれを特定するための前記撮像装置識別情報とが関連付けられた関連情報を参照することにより、前記表示態様を決定してもよい。
前記撮像画像データには、当該撮像画像データが取得された位置を示す第1位置情報が含まれており、前記音データには、当該音データが取得された位置を示す第2位置情報が含まれており、前記表示態様決定部は、前記第1位置情報が示す位置から最も近い位置に対応する前記第2位置情報に対応する前記音データの状態に基づいて前記表示態様を決定してもよい。
前記表示態様決定部は、前記音データに含まれている音のうち、所定の音以外の音の状態に基づいて前記表示態様を決定してもよい。
前記データ取得部は、前記複数の撮像装置それぞれに設けられた指向性マイクロフォンにより取得された前記複数の音データを取得してもよい。
本発明の第2の態様の画像処理方法は、コンピュータが、複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するステップと、前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定するステップと、決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させるステップと、を実行する。
本発明の第3の態様のプログラムは、コンピュータを、複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、として機能させる。
本発明によれば、動画の内容に適した表示態様でユーザが複数の動画を閲覧できるようになるという効果を奏する。
複数のカメラが競技場に設置されている状態を示す模式図である。 複数のカメラが作成した複数の撮像画像データに基づく画像がディスプレイに表示された状態を示す図である。 画像処理システムのシステム構成図である。 サーバの構成を示す図である。 複数のカメラ、サーバ及びユーザ端末の動作シーケンスを示す図である。 ユーザ端末の構成を示す図である。 第2の実施形態における複数のカメラ、サーバ及びユーザ端末の動作シーケンスを示す図である。
[画像処理システムSの概要]
図1及び図2は画像処理システムSの概要を説明するための図である。画像処理システムSは、それぞれ異なるアングルから所定の領域を撮影する複数の撮像装置であるカメラC(図1においてはC1~C5)が出力した複数の撮像画像データに基づく画像を、画像を見る人(以下、「ユーザ」という)が使用するディスプレイに同時に表示するシステムである。カメラCは、例えば競技が開催されている競技場、又はイベントが開催されているイベント会場に設置されており、所定の領域は、それぞれのカメラCが撮影可能な領域である。本明細書において、複数のカメラC1~C5のそれぞれを区別する必要がない場合、カメラCと称することがある。
図1は、複数のカメラC1~C5が競技場に設置されている状態を示す模式図である。図2は、複数のカメラC1~C5が作成した複数の撮像画像データに基づく画像がディスプレイに表示された状態を示す図である。撮像画像データは、例えば動画像であるが、静止画像であってもよい。
画像処理システムSは、複数のカメラC1~C5のそれぞれの位置で取得された音の状態に基づいて、ディスプレイに表示する画像の態様を変化させることができるという特徴を有する。音の状態は、例えば音の大きさ、音の内容又は音の周波数のように、カメラCが撮影している領域の状態と関連性がある情報により表される。画像処理システムSにおいては、例えば、大きな音が取得された位置のカメラCで撮影された画像が、ディスプレイにおいて他の画像よりも目立つように表示される。例えば、大きな音が取得された位置のカメラCで撮影された画像が、他の画像よりも大きく表示されたり、特別な枠で囲まれた状態で表示されたりする。
図2(a)は、ディスプレイにおける複数の領域R1~R5のそれぞれに、カメラC1~C5で撮影された画像が表示されている状態を示している。図2(a)においては、カメラC1で撮影された画像が、最も大きい領域R1に表示されており、他の画像は、領域R1よりも小さな領域R2~R5に表示されている。
図2(b)は、図2(a)の状態の後に、カメラC5で取得された音が、他のカメラC1~C4で取得された音よりも大きい場合にディスプレイに表示された画像の例を示している。図2(b)においては、図2(a)において領域R1に表示されていたカメラC1で撮影された画像に代わって、カメラC5で撮影された画像が領域R1に表示されている。画像処理システムSにおいては、このように、大きく表示される画像が、撮影された位置において取得された音の状態によって変化するので、例えば大きな歓声が起きた位置に近い位置で撮影された画像が大きく表示される。その結果、多くのユーザの関心を惹きつけるような注目シーンをユーザが見逃しにくくなる。
図3は、画像処理システムSのシステム構成図である。画像処理システムSは、複数のカメラC(C1~C5)と、サーバ1と、ユーザ端末2とを有する。複数のカメラC、サーバ1及びユーザ端末2は、ネットワークNを介して各種のデータを送受信する。ネットワークNは、インターネット又は携帯電話網等を含む。
サーバ1は、ネットワークNを介して、複数のカメラCそれぞれから撮像画像データと音データを取得する。サーバ1は、取得した音データが示す音の状態に基づいて、ユーザ端末2に表示させる際の表示態様を他の画像と異なる表示態様にするべき撮像画像データを決定する。サーバ1は、決定した表示態様で複数の撮像画像データに基づく画像をユーザ端末2に表示させるようにユーザ端末2を制御する画像処理装置の一例である。
ユーザ端末2は、サーバ1から配信される複数の撮像画像データに基づく複数の画像を表示するディスプレイを有する端末であり、例えば、スマートフォン、タブレット又はパーソナルコンピュータである。ユーザ端末2の台数は任意である。画像処理システムSにおいては、例えば、ユーザ端末2がサーバ1から複数の撮像画像データ及び少なくとも1つの音データの配信を受けて、配信された複数の撮像画像データを同時に表示するが、ユーザ端末2は、サーバ1を介することなく複数のカメラCから複数の撮像画像データ及び少なくとも1つの音データを取得し、少なくとも1つの音データが示す音の状態に基づく表示態様で複数の撮像画像データに基づく画像をディスプレイに表示してもよい。
<第1実施形態>
まず、サーバ1が表示態様を決定する実施形態について説明する。この場合、ユーザ端末2は、サーバ1から指示された表示態様に基づいて複数の撮像画像データに基づく複数の画像をディスプレイに表示する。
[サーバ1の構成]
図4は、サーバ1の構成を示す図である。サーバ1は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、データ取得部131、表示態様決定部132及び表示制御部133を有する。
通信部11は、ネットワークNを介して複数のカメラC及びユーザ端末2との間でデータを送受信するための通信インターフェースを有する。通信部11は、複数のカメラCから受信した複数の撮像画像データ及び音データをデータ取得部131に入力する。また、通信部11は、表示制御部133から入力された配信用の撮像画像データ及び音データを、ネットワークNを介してユーザ端末2へと送信する。
記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。また、記憶部12は、通信部11が受信した複数の撮像画像データを一時的に記憶する。
制御部13は、例えばCPU(Central Processing Unit)を有しており、記憶部12に記憶されたプログラムを実行することにより、データ取得部131、表示態様決定部132及び表示制御部133として機能する。
データ取得部131は、通信部11を介して、複数のカメラCが所定の領域を撮影することにより生成した複数の撮像画像データと、複数の撮像装置が所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得する。データ取得部131は、例えば複数のカメラCそれぞれに設けられた指向性マイクロフォンにより取得された複数の音データを取得する。複数のカメラCが競技場に設置されている場合、観客席の歓声に基づいて、目立つように表示される撮像画像データが選択されるように、データ取得部131は、カメラCが撮影する向きと反対向きに指向性を有するマイクロフォンにより取得された複数の音データを取得してもよい。
データ取得部131は、カメラCが出力した撮像画像データと、カメラCの位置において取得された音に対応する音データとを同時に取得してもよく、共通の識別情報が付された撮像画像データと音データとを別々に取得してもよい。データ取得部131は、取得した撮像画像データ及び音データを表示態様決定部132に入力する。データ取得部131は、取得した撮像画像データ及び音データを記憶部12に記憶させてもよい。
表示態様決定部132は、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する。特定撮像画像データは、撮像画像データに関連付けてデータ取得部131が取得した音データに対応する音の状態が、他の撮像画像データに関連付けられた音データに対応する音の状態と異なる特徴を有する撮像画像データである。
表示態様決定部132は、このような特定撮像画像データの表示態様を、他の撮像画像データよりもユーザが見る確率が高まるようにする。表示態様決定部132は、例えば、特定撮像画像データを他の撮像画像データよりも大きな表示態様に決定したり、特別な枠を付けた表示態様に決定したりする。図2に示した例の場合、表示態様決定部132は、領域R1に特定撮像画像データが表示されるように表示態様を決定する。表示態様決定部132は、特定撮像画像データを表示する領域に、他の撮像画像データを表示する領域と異なる色の枠を表示するようにしたり、枠を点滅させるようにしたりしてもよい。表示態様決定部132は、特定撮像画像データを表示する領域に、他の撮像画像データを表示する領域には表示されないマークを表示させてもよい。
表示態様決定部132は、少なくとも一部の音データに対応する音の大きさに基づいて表示態様を決定する。この場合、特定撮像画像データに対応する音の状態は、例えば大歓声の音を含む状態であり、他の撮像画像データに対応する音よりも大きなレベルの状態である。一例として、表示態様決定部132は、複数の音データのうち、第1音データに対応する第1撮像画像データの表示サイズよりも、第1音データよりも大きな音に対応する第2音データに対応する第2撮像画像データの表示サイズが大きくなるように表示態様を決定する。表示態様決定部132がこのように動作することで、大歓声が取得された位置のカメラCが出力した撮像画像データをユーザが視認しやすくなるので、ユーザが注目すべきシーンをユーザが見逃しにくくなる。
表示態様決定部132は、所定の閾値以上の音量に対応する撮像画像データを特定撮像画像データとして、他の撮像画像データの表示態様と異なる表示態様にしてもよい。所定の閾値以上は、例えばユーザにより設定された値、又は大歓声の音量に対応する値である。複数の撮像画像データが特定撮像画像データに該当する場合、表示態様決定部132は、複数の特定撮像画像データを他の撮像画像データの表示態様と異なる表示態様にしてもよい。表示態様決定部132がこのように動作することで、ユーザが注目すべき画像が複数ある場合に、ユーザが複数の画像を見ることができる。
表示態様決定部132は、少なくとも一部の音データに対応する音の内容に基づいて表示態様を決定してもよい。例えば、表示態様決定部132は、音データに含まれている音のうち、所定の音以外の音の状態に基づいて表示態様を決定する。表示態様決定部132は、音声認識をしたり、音の性状を解析したりすることにより、音データが示す音の内容が、ユーザが注目すべきシーンが撮影された位置と関係ない所定の音(例えば場内アナウンスの声又は外来音)であるか否かを判定する。表示態様決定部132は、音データが示す音の内容が、ユーザが注目すべきシーンが撮影された位置と関係ないと判定した場合、このような音データが示す音が、他の位置で取得された音よりも大きいとしても、このような音に対応する撮像画像データを他の撮像画像データと異なる表示態様にしない。
一方、表示態様決定部132は、特定の音の内容が、ユーザが注目すべきシーンが撮影された位置と関係する内容(例えば大歓声の声)である場合、他の位置で取得された歓声以外の音よりも小さいとしても、特定の音に対応する撮像画像データを他の撮像画像データよりも目立つ表示態様にする。表示態様決定部132がこのように動作することで、ユーザが注目する必要がない画像が目立つように表示されてしまうことを防げる。
撮像画像データには、撮像画像データが取得されたカメラCを識別するための撮像装置識別情報が含まれており、音データには、音データが取得された音声装置(例えばマイクロフォン)を識別するための音声識別情報が含まれていてもよい。この場合、表示態様決定部132は、記憶部12に記憶された、音声識別情報と撮像装置識別情報とが関連付けられた関連情報を参照することにより、撮像画像データに対応する音データを特定する。そして、特定した音データが示す音の状態に基づいて、表示態様を決定する。表示態様決定部132がこのように動作することで、カメラCに内蔵されていない外部マイクロフォンで音データが取得された場合であっても、音の状態に基づく表示態様にすることができる。
撮像画像データには、当該撮像画像データが取得された位置を示す第1位置情報が含まれており、音データには、当該音データが取得された位置を示す第2位置情報が含まれていてもよい。この場合、表示態様決定部132は、第1位置情報が示す位置から最も近い位置に対応する第2位置情報に対応する音データの状態に基づいて表示態様を決定する。
すなわち、表示態様決定部132は、第2位置情報が含まれた複数の音データをデータ取得部131が取得した場合に、撮像画像データを出力したカメラCから最も近い位置に設置されたマイクロフォンで取得された音データが示す音の状態に基づいて表示態様を決定する。表示態様決定部132がこのように動作することで、複数の外部マイクロフォンで音データが取得された場合であっても、最も適した音の状態に基づく表示態様にすることができるので、適切な表示態様にすることができる。
表示制御部133は、表示態様決定部132が決定した表示態様で、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データを表示させるように複数の撮像画像データをユーザ端末2のディスプレイに表示させるようにユーザ端末2を制御する。表示制御部133は、例えば、最も大きな歓声を示す音データに対応する撮像データに、特定撮像画像データであることを示すフラグを付した状態で当該撮像データをユーザ端末2に送信することで、ユーザ端末2が、特定撮像画像データに対応する画像をユーザが注目しやすいように表示できるようにする。表示制御部133は、表示態様決定部132が決定した表示態様で構成された画面のデータをユーザ端末2に送信することにより、表示態様決定部132が決定した表示態様で特定撮像画像データをユーザ端末2に表示させてもよい。
[画像処理システムSにおける動作シーケンス]
図5は、複数のカメラC、サーバ1及びユーザ端末2の動作シーケンスを示す図である。複数のカメラCは、サーバ1に対して撮像画像データ及び音データを送信する。表示態様決定部132は、データ取得部131が取得した音データが示す音の状態を特定し(S11)、特定した音の状態に基づいて、複数の撮像画像データに対応する複数の画像の表示態様を決定する(S12)。表示制御部133は、表示態様決定部132が決定した表示態様に対応する画面データを作成し(S13)、作成した画面データと音データとを関連付けてユーザ端末2に送信する。ユーザ端末2は、サーバ1から受信した画面データに基づく画面をディスプレイに表示する(S14)。
複数のカメラC、サーバ1及びユーザ端末2は、複数のカメラCが撮像画像データ及び音データを送信している間、図5に示す処理を繰り返す。複数のカメラC、サーバ1及びユーザ端末2がこのように動作することで、ユーザ端末2が、図2(b)に示したように、多くのユーザの関心を惹きつけるような注目シーンをユーザが見やすいようにディスプレイに表示することができる。
<第2の実施形態>
第1の実施形態においては、サーバ1が音の状態に基づいて表示態様を決定したが、ユーザ端末2が表示態様を決定してもよい。この場合、サーバ1は、複数のカメラCとユーザ端末2との間で撮像画像データを中継する中継装置として機能する。
図6は、ユーザ端末2の構成を示す図である。ユーザ端末2は、表示部20と、通信部21と、記憶部22と、制御部23とを有する。制御部23は、データ取得部231、表示態様決定部232及び表示制御部233を有する。
表示部20は、複数の撮像画像データに基づく画像を表示するディスプレイである。表示部20は、表示制御部233が作成した画面データを表示する。
通信部21は、ネットワークNを介してサーバ1から撮像画像データ及び音データを受信するための通信インターフェースである。通信部21は、受信した撮像画像データ及び音データをデータ取得部231に入力する。
記憶部22は、ROM及びRAMを含む記憶媒体である。記憶部22は、制御部23が実行するプログラムを記憶している。記憶部22は、通信部21が受信した撮像画像データ及び音データを一時的に記憶してもよい。
制御部23は、例えばCPUを有しており、記憶部22に記憶されたプログラムを実行することにより、データ取得部231、表示態様決定部232及び表示制御部233として機能する。
データ取得部231は、第1実施形態に係るサーバ1が有するデータ取得部131と同等の動作を実行する。例えば、データ取得部231は、通信部21を介して、複数のカメラCが所定の領域を撮影することにより生成した複数の撮像画像データと、複数の撮像装置が所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得する。データ取得部231は、取得した撮像画像データ及び音データを表示態様決定部232に入力する。
表示態様決定部232は、第1実施形態に係るサーバ1が有する表示態様決定部132と同等の動作を実行する。例えば、表示態様決定部232は、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する。表示態様決定部232は、データ取得部131が実行する他の動作も実行することができる。表示態様決定部232は、決定した表示態様を表示制御部233に通知する。
表示制御部233は、第1実施形態に係るサーバ1が有する133と同等の動作を実行する。例えば、表示制御部233は、表示態様決定部232が決定した表示態様で、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データを表示させるように複数の撮像画像データを表示部20に表示させる。表示制御部233は、例えば、表示態様決定部232が決定した表示態様に基づいて図2に示したような画面のデータを作成し、作成したデータを表示部20に送信することにより、図2に示したような画面を表示部20に表示させる。
図7は、第2の実施形態における複数のカメラC、サーバ1及びユーザ端末2の動作シーケンスを示す図である。複数のカメラCは、サーバ1に対して撮像画像データ及び音データを送信する。サーバ1は、受信した撮像画像データ及び音データを、予め登録された一以上のユーザ端末2に対して配信する。
ユーザ端末2の表示態様決定部232は、データ取得部231が取得した音データが示す音の状態を特定し(S21)、特定した音の状態に基づいて、複数の撮像画像データに対応する複数の画像の表示態様を決定する(S22)。表示制御部233は、表示態様決定部232が決定した表示態様に対応する画面データを作成し(S23)、作成した画面データを表示部20に表示させる(S24)。
複数のカメラC、サーバ1及びユーザ端末2は、複数のカメラCが撮像画像データ及び音データを送信している間、図7に示す処理を繰り返す。複数のカメラC、サーバ1及びユーザ端末2がこのように動作することで、ユーザ端末2が、図2(b)に示したように、多くのユーザの関心を惹きつけるような注目シーンをユーザが見やすいようにディスプレイに表示することができる。
[画像処理システムSによる効果]
以上説明したように、画像処理システムSにおいては、サーバ1又はユーザ端末2が、複数のカメラCが出力した複数の撮像画像データ及び複数の音データを取得すると、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する。そして、ユーザ端末2は、図2(b)に示したように、例えば大きな歓声を含む音データに対応する撮像画像データを、他の撮像画像データよりも大きく表示する。画像処理システムSがこのように構成されていることで、例えばユーザが注目すべき画像をユーザが見逃すことがないように、動画の内容に適した表示態様でユーザが複数の動画を閲覧できるようになる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 サーバ
2 ユーザ端末
11 通信部
12 記憶部
13 制御部
20 表示部
21 通信部
22 記憶部
23 制御部
131 データ取得部
132 表示態様決定部
133 表示制御部
231 データ取得部
232 表示態様決定部
233 表示制御部
撮像画像データには、撮像画像データが取得されたカメラCを識別するための撮像装置識別情報が含まれており、音データには、音データが取得された音声装置(例えばマイクロフォン)を識別するための音声装置識別情報が含まれていてもよい。この場合、表示態様決定部132は、記憶部12に記憶された、音声装置識別情報と撮像装置識別情報とが関連付けられた関連情報を参照することにより、撮像画像データに対応する音データを特定する。そして、特定した音データが示す音の状態に基づいて、表示態様を決定する。表示態様決定部132がこのように動作することで、カメラCに内蔵されていない外部マイクロフォンで音データが取得された場合であっても、音の状態に基づく表示態様にすることができる。

Claims (10)

  1. 複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、
    前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、
    前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、
    を有する画像処理装置。
  2. 前記表示態様決定部は、前記少なくとも一部の音データに対応する音の大きさに基づいて前記表示態様を決定する、
    請求項1に記載の画像処理装置。
  3. 前記表示態様決定部は、前記複数の音データのうち、第1音データに対応する第1撮像画像データの前記表示部における表示サイズよりも、第1音データよりも大きな音に対応する第2音データに対応する第2撮像画像データの前記表示サイズが大きくなるように前記表示態様を決定する、
    請求項2に記載の画像処理装置。
  4. 前記表示態様決定部は、前記少なくとも一部の音データに対応する音の内容に基づいて前記表示態様を決定する、
    請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記撮像画像データには、当該撮像画像データが取得された撮像装置を識別するための撮像装置識別情報が含まれており、前記音データには、当該音データが取得された装置を識別するための音声装置識別情報が含まれており、
    前記表示態様決定部は、前記音識別情報と、前記複数の撮像装置それぞれを特定するための前記撮像装置識別情報とが関連付けられた関連情報を参照することにより、前記表示態様を決定する、
    請求項1から4のいずれか一項に記載の画像処理装置。
  6. 前記撮像画像データには、当該撮像画像データが取得された位置を示す第1位置情報が含まれており、前記音データには、当該音データが取得された位置を示す第2位置情報が含まれており、
    前記表示態様決定部は、前記第1位置情報が示す位置から最も近い位置に対応する前記第2位置情報に対応する前記音データの状態に基づいて前記表示態様を決定する、
    請求項1から5のいずれか一項に記載の画像処理装置。
  7. 前記表示態様決定部は、前記音データに含まれている音のうち、所定の音以外の音の状態に基づいて前記表示態様を決定する、
    請求項1から6のいずれか一項に記載の画像処理装置。
  8. 前記データ取得部は、前記複数の撮像装置それぞれに設けられた指向性マイクロフォンにより取得された前記複数の音データを取得する、
    請求項1から7のいずれか一項に記載の画像処理装置。
  9. コンピュータが、
    複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するステップと、
    前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定するステップと、
    決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させるステップと、
    を実行する画像処理方法。
  10. コンピュータを、
    複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、
    前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、
    前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、
    として機能させるためのプログラム。

JP2020154705A 2020-09-15 2020-09-15 画像処理装置、画像処理方法及びプログラム Active JP6853909B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154705A JP6853909B1 (ja) 2020-09-15 2020-09-15 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154705A JP6853909B1 (ja) 2020-09-15 2020-09-15 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6853909B1 JP6853909B1 (ja) 2021-03-31
JP2022048722A true JP2022048722A (ja) 2022-03-28

Family

ID=75154731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154705A Active JP6853909B1 (ja) 2020-09-15 2020-09-15 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6853909B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04237288A (ja) * 1991-01-21 1992-08-25 Nippon Telegr & Teleph Corp <Ntt> 複数画像ウインドウ表示用音信号出力方法
JP2007311942A (ja) * 2006-05-16 2007-11-29 Toshiba Corp コンテンツ表示装置
JP2010161493A (ja) * 2009-01-06 2010-07-22 Canon Inc 画像表示装置及び画像表示方法
JP2015195541A (ja) * 2014-03-31 2015-11-05 日本放送協会 画像表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04237288A (ja) * 1991-01-21 1992-08-25 Nippon Telegr & Teleph Corp <Ntt> 複数画像ウインドウ表示用音信号出力方法
JP2007311942A (ja) * 2006-05-16 2007-11-29 Toshiba Corp コンテンツ表示装置
JP2010161493A (ja) * 2009-01-06 2010-07-22 Canon Inc 画像表示装置及び画像表示方法
JP2015195541A (ja) * 2014-03-31 2015-11-05 日本放送協会 画像表示装置

Also Published As

Publication number Publication date
JP6853909B1 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
JP6171263B2 (ja) 遠隔会議システム及び遠隔会議端末
EP3170123B1 (en) System and method for setting focus of digital image based on social relationship
US10523820B2 (en) High-quality audio/visual conferencing
GB2440376A (en) Wide angle video conference imaging
JP2011504339A (ja) 可変画質を有する写真を生成するシステム及び方法
JP6241802B1 (ja) 映像配信システム、ユーザ端末装置および映像配信方法
KR20070117284A (ko) 듀얼 카메라를 구비한 이동 통신 단말기에서 복수의 영상합성방법
WO2012019517A1 (zh) 用于视频通信的视频处理方法、装置及系统
KR100713531B1 (ko) 영상데이터에 특정효과 표시방법
CN109040654B (zh) 外部拍摄设备的识别方法、装置及存储介质
WO2019033880A1 (zh) 一种用于对基础服务数据进行数据定制的方法及系统
JP6853909B1 (ja) 画像処理装置、画像処理方法及びプログラム
US11310430B2 (en) Method and apparatus for providing video in portable terminal
JP2003219389A (ja) 映像配信方法及びシステム及び装置及びユーザ端末及び映像配信プログラム及び映像配信プログラムを格納した記憶媒体
US11825191B2 (en) Method for assisting the acquisition of media content at a scene
CN111866384B (zh) 拍摄控制方法、移动终端及计算机存储介质
KR100678208B1 (ko) 휴대단말기의 이미지 저장 및 표시방법
KR100678104B1 (ko) 휴대단말기에서 외부장치의 리소스 제어방법
JP7167629B2 (ja) ガイドシステム
KR101470163B1 (ko) 영상 제공을 위한 블랙박스 시스템의 블랙박스 장치 및 블랙박스 시스템의 운영방법
WO2023074355A1 (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
KR20080042462A (ko) 휴대용 단말기에서 이미지 편집 장치 및 방법
JP7167610B2 (ja) 通信端末、通信システム、撮像装置及び撮像方法
JP2022039317A (ja) 情報処理装置、情報処理方法及びプログラム
JP2000287188A (ja) 多地点間映像音声通信システム及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201008

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210312

R150 Certificate of patent or registration of utility model

Ref document number: 6853909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150