JP6853909B1 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP6853909B1 JP6853909B1 JP2020154705A JP2020154705A JP6853909B1 JP 6853909 B1 JP6853909 B1 JP 6853909B1 JP 2020154705 A JP2020154705 A JP 2020154705A JP 2020154705 A JP2020154705 A JP 2020154705A JP 6853909 B1 JP6853909 B1 JP 6853909B1
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- image data
- display mode
- sound
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】動画の内容に適した表示態様でユーザが複数の動画を閲覧できる画像処理装置、画像処理方法及びプログラムを提供する。【解決手段】サーバ1は、複数のカメラが所定の領域を撮影することにより生成した複数の撮像画像データと、複数のカメラが所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部131と、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部132と、表示態様決定部132が決定した表示態様で特定撮像画像データを表示させるように複数の撮像画像データをユーザ端末のディスプレイに表示させる表示制御部133と、を有する。【選択図】図4PROBLEM TO BE SOLVED: To provide an image processing device, an image processing method and a program capable of allowing a user to view a plurality of moving images in a display mode suitable for the contents of the moving image. SOLUTION: A server 1 has a plurality of captured image data generated by a plurality of cameras photographing a predetermined area, and a plurality of captured image data acquired at a plurality of positions where a plurality of cameras are photographing a predetermined area. It is a specific captured image data among the plurality of captured image data based on the data acquisition unit 131 that acquires the sound data in association with each other and the state of the sound indicated by at least a part of the sound data among the plurality of sound data. A display mode determining unit 132 that determines the display mode of the specific captured image data, and a plurality of captured image data are displayed on the display of the user terminal so that the specific captured image data is displayed in the display mode determined by the display mode determining unit 132. It has a display control unit 133. [Selection diagram] Fig. 4
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.
従来、画像を表示できる端末に、複数のカメラで撮像された複数の動画を配信し、端末に複数の動画を表示する技術が知られている(例えば、特許文献1を参照)。 Conventionally, there is known a technique of delivering a plurality of moving images captured by a plurality of cameras to a terminal capable of displaying an image and displaying the plurality of moving images on the terminal (see, for example, Patent Document 1).
従来の端末は、予め定められた配置またはユーザが任意に設定した配置で複数の動画を表示していた。しかし、複数の動画のいずれかにおいて、多くのユーザの関心を惹きつけるような注目シーンが配信されても、ユーザが他の動画を閲覧している場合には当該シーンを見逃してしまう可能性があった。 The conventional terminal displays a plurality of moving images in a predetermined arrangement or an arrangement arbitrarily set by the user. However, even if a attention scene that attracts the attention of many users is delivered in any of a plurality of videos, there is a possibility that the scene will be missed if the user is viewing another video. there were.
そこで、本発明はこれらの点に鑑みてなされたものであり、動画の内容に適した表示態様でユーザが複数の動画を閲覧できるようにすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to enable a user to view a plurality of moving images in a display mode suitable for the contents of the moving images.
本発明の第1の態様の画像処理装置は、複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、を有する。 In the image processing device of the first aspect of the present invention, a plurality of captured image data generated by a plurality of imaging devices capturing a predetermined area and the plurality of imaging devices capturing the predetermined area. The plurality of captured images are based on a data acquisition unit that acquires a plurality of sound data acquired at a plurality of positions in association with each other and a sound state indicated by at least a part of the sound data among the plurality of sound data. A display mode determining unit that determines a display mode of the specific captured image data that is the specific captured image data among the data, and a plurality of the specific captured image data so as to display the specific captured image data in the display mode determined by the display mode determining unit. It has a display control unit for displaying captured image data on the display unit.
前記表示態様決定部は、前記少なくとも一部の音データに対応する音の大きさに基づいて前記表示態様を決定してもよい。 The display mode determining unit may determine the display mode based on the loudness of the sound corresponding to at least a part of the sound data.
前記表示態様決定部は、前記複数の音データのうち、第1音データに対応する第1撮像画像データの前記表示部における表示サイズよりも、第1音データよりも大きな音に対応する第2音データに対応する第2撮像画像データの前記表示サイズが大きくなるように前記表示態様を決定してもよい。 Among the plurality of sound data, the display mode determining unit corresponds to a second sound having a size larger than the display size of the first captured image data corresponding to the first sound data in the display unit and larger than the first sound data. The display mode may be determined so that the display size of the second captured image data corresponding to the sound data becomes large.
前記表示態様決定部は、前記少なくとも一部の音データに対応する音の内容に基づいて前記表示態様を決定してもよい。 The display mode determining unit may determine the display mode based on the content of the sound corresponding to at least a part of the sound data.
前記撮像画像データには、当該撮像画像データが取得された撮像装置を識別するための撮像装置識別情報が含まれており、前記音データには、当該音データが取得された装置を識別するための音声装置識別情報が含まれており、前記表示態様決定部は、前記音識別情報と、前記複数の撮像装置それぞれを特定するための前記撮像装置識別情報とが関連付けられた関連情報を参照することにより、前記表示態様を決定してもよい。 The captured image data includes image pickup device identification information for identifying the image pickup device from which the captured image data was acquired, and the sound data is for identifying the device from which the sound data was acquired. The voice device identification information of the above is included, and the display mode determining unit refers to the related information in which the sound identification information and the image pickup device identification information for identifying each of the plurality of image pickup devices are associated with each other. Thereby, the display mode may be determined.
前記撮像画像データには、当該撮像画像データが取得された位置を示す第1位置情報が含まれており、前記音データには、当該音データが取得された位置を示す第2位置情報が含まれており、前記表示態様決定部は、前記第1位置情報が示す位置から最も近い位置に対応する前記第2位置情報に対応する前記音データの状態に基づいて前記表示態様を決定してもよい。 The captured image data includes first position information indicating the position where the captured image data is acquired, and the sound data includes second position information indicating the position where the sound data is acquired. Even if the display mode determining unit determines the display mode based on the state of the sound data corresponding to the second position information corresponding to the position closest to the position indicated by the first position information. Good.
前記表示態様決定部は、前記音データに含まれている音のうち、所定の音以外の音の状態に基づいて前記表示態様を決定してもよい。 The display mode determining unit may determine the display mode based on the state of sounds other than the predetermined sounds among the sounds included in the sound data.
前記データ取得部は、前記複数の撮像装置それぞれに設けられた指向性マイクロフォンにより取得された前記複数の音データを取得してもよい。 The data acquisition unit may acquire the plurality of sound data acquired by the directional microphones provided in each of the plurality of imaging devices.
本発明の第2の態様の画像処理方法は、コンピュータが、複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するステップと、前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定するステップと、決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させるステップと、を実行する。 In the image processing method of the second aspect of the present invention, a computer captures a plurality of captured image data generated by a plurality of imaging devices capturing a predetermined area, and the plurality of imaging devices capture the predetermined area. The plurality of imagings are performed based on the step of associating and acquiring the plurality of sound data acquired at the plurality of positions, and the state of the sound indicated by at least a part of the sound data among the plurality of sound data. A step of determining a display mode of the specific captured image data which is the specific captured image data among the image data, and displaying the plurality of captured image data on the display unit so as to display the specific captured image data in the determined display mode. To perform the steps and.
本発明の第3の態様のプログラムは、コンピュータを、複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、として機能させる。 In the program of the third aspect of the present invention, the computer captures a plurality of captured image data generated by a plurality of imaging devices capturing a predetermined area, and the plurality of imaging devices capture the predetermined area. The plurality of imaging images are based on a data acquisition unit that acquires a plurality of sound data acquired at a plurality of positions in association with each other and a sound state indicated by at least a part of the sound data among the plurality of sound data. A display mode determining unit that determines a display mode of the specific captured image data, which is the specific captured image data among the image data, and a plurality of the display mode determining units so as to display the specific captured image data in the display mode determined by the display mode determining unit. It functions as a display control unit that displays the captured image data of the above on the display unit.
本発明によれば、動画の内容に適した表示態様でユーザが複数の動画を閲覧できるようになるという効果を奏する。 According to the present invention, there is an effect that a user can view a plurality of moving images in a display mode suitable for the contents of the moving image.
[画像処理システムSの概要]
図1及び図2は画像処理システムSの概要を説明するための図である。画像処理システムSは、それぞれ異なるアングルから所定の領域を撮影する複数の撮像装置であるカメラC(図1においてはC1〜C5)が出力した複数の撮像画像データに基づく画像を、画像を見る人(以下、「ユーザ」という)が使用するディスプレイに同時に表示するシステムである。カメラCは、例えば競技が開催されている競技場、又はイベントが開催されているイベント会場に設置されており、所定の領域は、それぞれのカメラCが撮影可能な領域である。本明細書において、複数のカメラC1〜C5のそれぞれを区別する必要がない場合、カメラCと称することがある。
[Overview of image processing system S]
1 and 2 are diagrams for explaining the outline of the image processing system S. The image processing system S is a person who views an image based on a plurality of captured image data output by cameras C (C1 to C5 in FIG. 1), which are a plurality of imaging devices that capture a predetermined area from different angles. It is a system that simultaneously displays on the display used by (hereinafter referred to as "user"). The camera C is installed in, for example, a stadium where a competition is held or an event venue where an event is held, and a predetermined area is an area where each camera C can take a picture. In the present specification, when it is not necessary to distinguish each of the plurality of cameras C1 to C5, it may be referred to as camera C.
図1は、複数のカメラC1〜C5が競技場に設置されている状態を示す模式図である。図2は、複数のカメラC1〜C5が作成した複数の撮像画像データに基づく画像がディスプレイに表示された状態を示す図である。撮像画像データは、例えば動画像であるが、静止画像であってもよい。 FIG. 1 is a schematic view showing a state in which a plurality of cameras C1 to C5 are installed in a stadium. FIG. 2 is a diagram showing a state in which an image based on a plurality of captured image data created by a plurality of cameras C1 to C5 is displayed on a display. The captured image data is, for example, a moving image, but may be a still image.
画像処理システムSは、複数のカメラC1〜C5のそれぞれの位置で取得された音の状態に基づいて、ディスプレイに表示する画像の態様を変化させることができるという特徴を有する。音の状態は、例えば音の大きさ、音の内容又は音の周波数のように、カメラCが撮影している領域の状態と関連性がある情報により表される。画像処理システムSにおいては、例えば、大きな音が取得された位置のカメラCで撮影された画像が、ディスプレイにおいて他の画像よりも目立つように表示される。例えば、大きな音が取得された位置のカメラCで撮影された画像が、他の画像よりも大きく表示されたり、特別な枠で囲まれた状態で表示されたりする。 The image processing system S has a feature that the mode of the image displayed on the display can be changed based on the state of the sound acquired at each position of the plurality of cameras C1 to C5. The sound state is represented by information related to the state of the area captured by the camera C, such as loudness, sound content, or sound frequency. In the image processing system S, for example, an image taken by the camera C at a position where a loud sound is acquired is displayed on the display so as to be more conspicuous than other images. For example, an image taken by the camera C at a position where a loud sound is acquired may be displayed larger than other images or may be displayed in a state surrounded by a special frame.
図2(a)は、ディスプレイにおける複数の領域R1〜R5のそれぞれに、カメラC1〜C5で撮影された画像が表示されている状態を示している。図2(a)においては、カメラC1で撮影された画像が、最も大きい領域R1に表示されており、他の画像は、領域R1よりも小さな領域R2〜R5に表示されている。 FIG. 2A shows a state in which images taken by the cameras C1 to C5 are displayed in each of the plurality of areas R1 to R5 on the display. In FIG. 2A, the image taken by the camera C1 is displayed in the largest area R1, and the other images are displayed in the areas R2 to R5 smaller than the area R1.
図2(b)は、図2(a)の状態の後に、カメラC5で取得された音が、他のカメラC1〜C4で取得された音よりも大きい場合にディスプレイに表示された画像の例を示している。図2(b)においては、図2(a)において領域R1に表示されていたカメラC1で撮影された画像に代わって、カメラC5で撮影された画像が領域R1に表示されている。画像処理システムSにおいては、このように、大きく表示される画像が、撮影された位置において取得された音の状態によって変化するので、例えば大きな歓声が起きた位置に近い位置で撮影された画像が大きく表示される。その結果、多くのユーザの関心を惹きつけるような注目シーンをユーザが見逃しにくくなる。 FIG. 2B is an example of an image displayed on the display when the sound acquired by the camera C5 is louder than the sound acquired by the other cameras C1 to C4 after the state of FIG. 2A. Is shown. In FIG. 2B, the image taken by the camera C5 is displayed in the area R1 instead of the image taken by the camera C1 displayed in the area R1 in FIG. 2A. In the image processing system S, the image displayed in a large size changes depending on the state of the sound acquired at the position where the image was taken. Therefore, for example, the image taken at a position close to the position where a loud cheer occurs is displayed. It is displayed large. As a result, it becomes difficult for the user to overlook the attention scene that attracts the attention of many users.
図3は、画像処理システムSのシステム構成図である。画像処理システムSは、複数のカメラC(C1〜C5)と、サーバ1と、ユーザ端末2とを有する。複数のカメラC、サーバ1及びユーザ端末2は、ネットワークNを介して各種のデータを送受信する。ネットワークNは、インターネット又は携帯電話網等を含む。 FIG. 3 is a system configuration diagram of the image processing system S. The image processing system S has a plurality of cameras C (C1 to C5), a server 1, and a user terminal 2. The plurality of cameras C, the server 1, and the user terminal 2 transmit and receive various data via the network N. The network N includes the Internet, a mobile phone network, and the like.
サーバ1は、ネットワークNを介して、複数のカメラCそれぞれから撮像画像データと音データを取得する。サーバ1は、取得した音データが示す音の状態に基づいて、ユーザ端末2に表示させる際の表示態様を他の画像と異なる表示態様にするべき撮像画像データを決定する。サーバ1は、決定した表示態様で複数の撮像画像データに基づく画像をユーザ端末2に表示させるようにユーザ端末2を制御する画像処理装置の一例である。 The server 1 acquires captured image data and sound data from each of the plurality of cameras C via the network N. The server 1 determines the captured image data to be displayed on the user terminal 2 in a display mode different from that of other images, based on the sound state indicated by the acquired sound data. The server 1 is an example of an image processing device that controls the user terminal 2 so that the user terminal 2 displays an image based on a plurality of captured image data in the determined display mode.
ユーザ端末2は、サーバ1から配信される複数の撮像画像データに基づく複数の画像を表示するディスプレイを有する端末であり、例えば、スマートフォン、タブレット又はパーソナルコンピュータである。ユーザ端末2の台数は任意である。画像処理システムSにおいては、例えば、ユーザ端末2がサーバ1から複数の撮像画像データ及び少なくとも1つの音データの配信を受けて、配信された複数の撮像画像データを同時に表示するが、ユーザ端末2は、サーバ1を介することなく複数のカメラCから複数の撮像画像データ及び少なくとも1つの音データを取得し、少なくとも1つの音データが示す音の状態に基づく表示態様で複数の撮像画像データに基づく画像をディスプレイに表示してもよい。 The user terminal 2 is a terminal having a display for displaying a plurality of images based on a plurality of captured image data distributed from the server 1, and is, for example, a smartphone, a tablet, or a personal computer. The number of user terminals 2 is arbitrary. In the image processing system S, for example, the user terminal 2 receives distribution of a plurality of captured image data and at least one sound data from the server 1 and simultaneously displays the distributed plurality of captured image data. Acquires a plurality of captured image data and at least one sound data from a plurality of cameras C without going through the server 1, and is based on the plurality of captured image data in a display mode based on the sound state indicated by at least one sound data. The image may be displayed on the display.
<第1実施形態>
まず、サーバ1が表示態様を決定する実施形態について説明する。この場合、ユーザ端末2は、サーバ1から指示された表示態様に基づいて複数の撮像画像データに基づく複数の画像をディスプレイに表示する。
<First Embodiment>
First, an embodiment in which the server 1 determines the display mode will be described. In this case, the user terminal 2 displays a plurality of images based on the plurality of captured image data on the display based on the display mode instructed by the server 1.
[サーバ1の構成]
図4は、サーバ1の構成を示す図である。サーバ1は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、データ取得部131、表示態様決定部132及び表示制御部133を有する。
[Configuration of server 1]
FIG. 4 is a diagram showing the configuration of the server 1. The server 1 has a
通信部11は、ネットワークNを介して複数のカメラC及びユーザ端末2との間でデータを送受信するための通信インターフェースを有する。通信部11は、複数のカメラCから受信した複数の撮像画像データ及び音データをデータ取得部131に入力する。また、通信部11は、表示制御部133から入力された配信用の撮像画像データ及び音データを、ネットワークNを介してユーザ端末2へと送信する。
The
記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。また、記憶部12は、通信部11が受信した複数の撮像画像データを一時的に記憶する。
The
制御部13は、例えばCPU(Central Processing Unit)を有しており、記憶部12に記憶されたプログラムを実行することにより、データ取得部131、表示態様決定部132及び表示制御部133として機能する。
The
データ取得部131は、通信部11を介して、複数のカメラCが所定の領域を撮影することにより生成した複数の撮像画像データと、複数の撮像装置が所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得する。データ取得部131は、例えば複数のカメラCそれぞれに設けられた指向性マイクロフォンにより取得された複数の音データを取得する。複数のカメラCが競技場に設置されている場合、観客席の歓声に基づいて、目立つように表示される撮像画像データが選択されるように、データ取得部131は、カメラCが撮影する向きと反対向きに指向性を有するマイクロフォンにより取得された複数の音データを取得してもよい。
The
データ取得部131は、カメラCが出力した撮像画像データと、カメラCの位置において取得された音に対応する音データとを同時に取得してもよく、共通の識別情報が付された撮像画像データと音データとを別々に取得してもよい。データ取得部131は、取得した撮像画像データ及び音データを表示態様決定部132に入力する。データ取得部131は、取得した撮像画像データ及び音データを記憶部12に記憶させてもよい。
The
表示態様決定部132は、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する。特定撮像画像データは、撮像画像データに関連付けてデータ取得部131が取得した音データに対応する音の状態が、他の撮像画像データに関連付けられた音データに対応する音の状態と異なる特徴を有する撮像画像データである。
The display
表示態様決定部132は、このような特定撮像画像データの表示態様を、他の撮像画像データよりもユーザが見る確率が高まるようにする。表示態様決定部132は、例えば、特定撮像画像データを他の撮像画像データよりも大きな表示態様に決定したり、特別な枠を付けた表示態様に決定したりする。図2に示した例の場合、表示態様決定部132は、領域R1に特定撮像画像データが表示されるように表示態様を決定する。表示態様決定部132は、特定撮像画像データを表示する領域に、他の撮像画像データを表示する領域と異なる色の枠を表示するようにしたり、枠を点滅させるようにしたりしてもよい。表示態様決定部132は、特定撮像画像データを表示する領域に、他の撮像画像データを表示する領域には表示されないマークを表示させてもよい。
The display
表示態様決定部132は、少なくとも一部の音データに対応する音の大きさに基づいて表示態様を決定する。この場合、特定撮像画像データに対応する音の状態は、例えば大歓声の音を含む状態であり、他の撮像画像データに対応する音よりも大きなレベルの状態である。一例として、表示態様決定部132は、複数の音データのうち、第1音データに対応する第1撮像画像データの表示サイズよりも、第1音データよりも大きな音に対応する第2音データに対応する第2撮像画像データの表示サイズが大きくなるように表示態様を決定する。表示態様決定部132がこのように動作することで、大歓声が取得された位置のカメラCが出力した撮像画像データをユーザが視認しやすくなるので、ユーザが注目すべきシーンをユーザが見逃しにくくなる。
The display
表示態様決定部132は、所定の閾値以上の音量に対応する撮像画像データを特定撮像画像データとして、他の撮像画像データの表示態様と異なる表示態様にしてもよい。所定の閾値以上は、例えばユーザにより設定された値、又は大歓声の音量に対応する値である。複数の撮像画像データが特定撮像画像データに該当する場合、表示態様決定部132は、複数の特定撮像画像データを他の撮像画像データの表示態様と異なる表示態様にしてもよい。表示態様決定部132がこのように動作することで、ユーザが注目すべき画像が複数ある場合に、ユーザが複数の画像を見ることができる。
The display
表示態様決定部132は、少なくとも一部の音データに対応する音の内容に基づいて表示態様を決定してもよい。例えば、表示態様決定部132は、音データに含まれている音のうち、所定の音以外の音の状態に基づいて表示態様を決定する。表示態様決定部132は、音声認識をしたり、音の性状を解析したりすることにより、音データが示す音の内容が、ユーザが注目すべきシーンが撮影された位置と関係ない所定の音(例えば場内アナウンスの声又は外来音)であるか否かを判定する。表示態様決定部132は、音データが示す音の内容が、ユーザが注目すべきシーンが撮影された位置と関係ないと判定した場合、このような音データが示す音が、他の位置で取得された音よりも大きいとしても、このような音に対応する撮像画像データを他の撮像画像データと異なる表示態様にしない。
The display
一方、表示態様決定部132は、特定の音の内容が、ユーザが注目すべきシーンが撮影された位置と関係する内容(例えば大歓声の声)である場合、他の位置で取得された歓声以外の音よりも小さいとしても、特定の音に対応する撮像画像データを他の撮像画像データよりも目立つ表示態様にする。表示態様決定部132がこのように動作することで、ユーザが注目する必要がない画像が目立つように表示されてしまうことを防げる。
On the other hand, when the content of the specific sound is related to the position where the scene to be noticed by the user is shot (for example, a loud cheer), the display
撮像画像データには、撮像画像データが取得されたカメラCを識別するための撮像装置識別情報が含まれており、音データには、音データが取得された音声装置(例えばマイクロフォン)を識別するための音声装置識別情報が含まれていてもよい。この場合、表示態様決定部132は、記憶部12に記憶された、音声装置識別情報と撮像装置識別情報とが関連付けられた関連情報を参照することにより、撮像画像データに対応する音データを特定する。そして、特定した音データが示す音の状態に基づいて、表示態様を決定する。表示態様決定部132がこのように動作することで、カメラCに内蔵されていない外部マイクロフォンで音データが取得された場合であっても、音の状態に基づく表示態様にすることができる。
The captured image data includes image pickup device identification information for identifying the camera C from which the captured image data has been acquired, and the sound data identifies a voice device (for example, a microphone) from which the sound data has been acquired. The voice device identification information for the purpose may be included. In this case, the display
撮像画像データには、当該撮像画像データが取得された位置を示す第1位置情報が含まれており、音データには、当該音データが取得された位置を示す第2位置情報が含まれていてもよい。この場合、表示態様決定部132は、第1位置情報が示す位置から最も近い位置に対応する第2位置情報に対応する音データの状態に基づいて表示態様を決定する。
The captured image data includes the first position information indicating the position where the captured image data is acquired, and the sound data includes the second position information indicating the position where the sound data is acquired. You may. In this case, the display
すなわち、表示態様決定部132は、第2位置情報が含まれた複数の音データをデータ取得部131が取得した場合に、撮像画像データを出力したカメラCから最も近い位置に設置されたマイクロフォンで取得された音データが示す音の状態に基づいて表示態様を決定する。表示態様決定部132がこのように動作することで、複数の外部マイクロフォンで音データが取得された場合であっても、最も適した音の状態に基づく表示態様にすることができるので、適切な表示態様にすることができる。
That is, the display
表示制御部133は、表示態様決定部132が決定した表示態様で、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データを表示させるように複数の撮像画像データをユーザ端末2のディスプレイに表示させるようにユーザ端末2を制御する。表示制御部133は、例えば、最も大きな歓声を示す音データに対応する撮像データに、特定撮像画像データであることを示すフラグを付した状態で当該撮像データをユーザ端末2に送信することで、ユーザ端末2が、特定撮像画像データに対応する画像をユーザが注目しやすいように表示できるようにする。表示制御部133は、表示態様決定部132が決定した表示態様で構成された画面のデータをユーザ端末2に送信することにより、表示態様決定部132が決定した表示態様で特定撮像画像データをユーザ端末2に表示させてもよい。
The
[画像処理システムSにおける動作シーケンス]
図5は、複数のカメラC、サーバ1及びユーザ端末2の動作シーケンスを示す図である。複数のカメラCは、サーバ1に対して撮像画像データ及び音データを送信する。表示態様決定部132は、データ取得部131が取得した音データが示す音の状態を特定し(S11)、特定した音の状態に基づいて、複数の撮像画像データに対応する複数の画像の表示態様を決定する(S12)。表示制御部133は、表示態様決定部132が決定した表示態様に対応する画面データを作成し(S13)、作成した画面データと音データとを関連付けてユーザ端末2に送信する。ユーザ端末2は、サーバ1から受信した画面データに基づく画面をディスプレイに表示する(S14)。
[Operation sequence in image processing system S]
FIG. 5 is a diagram showing an operation sequence of a plurality of cameras C, a server 1, and a user terminal 2. The plurality of cameras C transmit captured image data and sound data to the server 1. The display
複数のカメラC、サーバ1及びユーザ端末2は、複数のカメラCが撮像画像データ及び音データを送信している間、図5に示す処理を繰り返す。複数のカメラC、サーバ1及びユーザ端末2がこのように動作することで、ユーザ端末2が、図2(b)に示したように、多くのユーザの関心を惹きつけるような注目シーンをユーザが見やすいようにディスプレイに表示することができる。 The plurality of cameras C, the server 1, and the user terminal 2 repeat the process shown in FIG. 5 while the plurality of cameras C transmit the captured image data and the sound data. By operating the plurality of cameras C, the server 1, and the user terminal 2 in this way, the user terminal 2 can perform a attention scene that attracts the attention of many users as shown in FIG. 2 (b). Can be displayed on the display for easy viewing.
<第2の実施形態>
第1の実施形態においては、サーバ1が音の状態に基づいて表示態様を決定したが、ユーザ端末2が表示態様を決定してもよい。この場合、サーバ1は、複数のカメラCとユーザ端末2との間で撮像画像データを中継する中継装置として機能する。
<Second embodiment>
In the first embodiment, the server 1 determines the display mode based on the sound state, but the user terminal 2 may determine the display mode. In this case, the server 1 functions as a relay device that relays captured image data between the plurality of cameras C and the user terminal 2.
図6は、ユーザ端末2の構成を示す図である。ユーザ端末2は、表示部20と、通信部21と、記憶部22と、制御部23とを有する。制御部23は、データ取得部231、表示態様決定部232及び表示制御部233を有する。
FIG. 6 is a diagram showing the configuration of the user terminal 2. The user terminal 2 has a
表示部20は、複数の撮像画像データに基づく画像を表示するディスプレイである。表示部20は、表示制御部233が作成した画面データを表示する。
The
通信部21は、ネットワークNを介してサーバ1から撮像画像データ及び音データを受信するための通信インターフェースである。通信部21は、受信した撮像画像データ及び音データをデータ取得部231に入力する。
The
記憶部22は、ROM及びRAMを含む記憶媒体である。記憶部22は、制御部23が実行するプログラムを記憶している。記憶部22は、通信部21が受信した撮像画像データ及び音データを一時的に記憶してもよい。
The
制御部23は、例えばCPUを有しており、記憶部22に記憶されたプログラムを実行することにより、データ取得部231、表示態様決定部232及び表示制御部233として機能する。
The
データ取得部231は、第1実施形態に係るサーバ1が有するデータ取得部131と同等の動作を実行する。例えば、データ取得部231は、通信部21を介して、複数のカメラCが所定の領域を撮影することにより生成した複数の撮像画像データと、複数の撮像装置が所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得する。データ取得部231は、取得した撮像画像データ及び音データを表示態様決定部232に入力する。
The
表示態様決定部232は、第1実施形態に係るサーバ1が有する表示態様決定部132と同等の動作を実行する。例えば、表示態様決定部232は、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する。表示態様決定部232は、データ取得部131が実行する他の動作も実行することができる。表示態様決定部232は、決定した表示態様を表示制御部233に通知する。
The display
表示制御部233は、第1実施形態に係るサーバ1が有する133と同等の動作を実行する。例えば、表示制御部233は、表示態様決定部232が決定した表示態様で、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データを表示させるように複数の撮像画像データを表示部20に表示させる。表示制御部233は、例えば、表示態様決定部232が決定した表示態様に基づいて図2に示したような画面のデータを作成し、作成したデータを表示部20に送信することにより、図2に示したような画面を表示部20に表示させる。
The
図7は、第2の実施形態における複数のカメラC、サーバ1及びユーザ端末2の動作シーケンスを示す図である。複数のカメラCは、サーバ1に対して撮像画像データ及び音データを送信する。サーバ1は、受信した撮像画像データ及び音データを、予め登録された一以上のユーザ端末2に対して配信する。 FIG. 7 is a diagram showing an operation sequence of the plurality of cameras C, the server 1, and the user terminal 2 in the second embodiment. The plurality of cameras C transmit captured image data and sound data to the server 1. The server 1 distributes the received captured image data and sound data to one or more user terminals 2 registered in advance.
ユーザ端末2の表示態様決定部232は、データ取得部231が取得した音データが示す音の状態を特定し(S21)、特定した音の状態に基づいて、複数の撮像画像データに対応する複数の画像の表示態様を決定する(S22)。表示制御部233は、表示態様決定部232が決定した表示態様に対応する画面データを作成し(S23)、作成した画面データを表示部20に表示させる(S24)。
The display
複数のカメラC、サーバ1及びユーザ端末2は、複数のカメラCが撮像画像データ及び音データを送信している間、図7に示す処理を繰り返す。複数のカメラC、サーバ1及びユーザ端末2がこのように動作することで、ユーザ端末2が、図2(b)に示したように、多くのユーザの関心を惹きつけるような注目シーンをユーザが見やすいようにディスプレイに表示することができる。 The plurality of cameras C, the server 1, and the user terminal 2 repeat the process shown in FIG. 7 while the plurality of cameras C transmit the captured image data and the sound data. By operating the plurality of cameras C, the server 1, and the user terminal 2 in this way, the user terminal 2 can perform a attention scene that attracts the attention of many users as shown in FIG. 2 (b). Can be displayed on the display for easy viewing.
[画像処理システムSによる効果]
以上説明したように、画像処理システムSにおいては、サーバ1又はユーザ端末2が、複数のカメラCが出力した複数の撮像画像データ及び複数の音データを取得すると、複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する。そして、ユーザ端末2は、図2(b)に示したように、例えば大きな歓声を含む音データに対応する撮像画像データを、他の撮像画像データよりも大きく表示する。画像処理システムSがこのように構成されていることで、例えばユーザが注目すべき画像をユーザが見逃すことがないように、動画の内容に適した表示態様でユーザが複数の動画を閲覧できるようになる。
[Effect of image processing system S]
As described above, in the image processing system S, when the server 1 or the user terminal 2 acquires a plurality of captured image data and a plurality of sound data output by the plurality of cameras C, at least one of the plurality of sound data is obtained. Based on the state of the sound indicated by the sound data of the unit, the display mode of the specific captured image data, which is the specific captured image data among the plurality of captured image data, is determined. Then, as shown in FIG. 2B, the user terminal 2 displays the captured image data corresponding to the sound data including, for example, a loud cheer, larger than the other captured image data. By configuring the image processing system S in this way, for example, the user can view a plurality of moving images in a display mode suitable for the content of the moving image so that the user does not miss an image that the user should pay attention to. become.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. is there. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.
1 サーバ
2 ユーザ端末
11 通信部
12 記憶部
13 制御部
20 表示部
21 通信部
22 記憶部
23 制御部
131 データ取得部
132 表示態様決定部
133 表示制御部
231 データ取得部
232 表示態様決定部
233 表示制御部
1 Server 2
Claims (10)
前記複数の音データのうち少なくとも一部の音データに含まれている音のうち、所定の音以外の音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、
前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、
を有する画像処理装置。 A plurality of captured image data generated by a plurality of imaging devices photographing a predetermined area, a plurality of sound data acquired at a plurality of positions where the plurality of imaging devices are photographing the predetermined area, and a plurality of sound data. And the data acquisition part to be acquired by associating
Specific captured image data among the plurality of captured image data based on the state of sounds other than a predetermined sound among the sounds included in at least a part of the plurality of sound data. A display mode determination unit that determines the display mode of captured image data,
A display control unit that displays the plurality of captured image data on the display unit so that the specific captured image data is displayed in the display mode determined by the display mode determining unit.
An image processing device having.
請求項1に記載の画像処理装置。 The display mode determining unit determines the display mode based on the loudness of the sound corresponding to at least a part of the sound data.
The image processing apparatus according to claim 1.
請求項2に記載の画像処理装置。 Among the plurality of sound data, the display mode determining unit corresponds to a second sound having a size larger than the display size of the first captured image data corresponding to the first sound data in the display unit and larger than the first sound data. The display mode is determined so that the display size of the second captured image data corresponding to the sound data becomes large.
The image processing apparatus according to claim 2.
請求項1から3のいずれか一項に記載の画像処理装置。 The display mode determining unit determines the display mode based on the content of the sound corresponding to at least a part of the sound data.
The image processing apparatus according to any one of claims 1 to 3.
前記表示態様決定部は、前記音声装置識別情報と、前記複数の撮像装置それぞれを特定するための前記撮像装置識別情報とが関連付けられた関連情報を参照することにより、前記表示態様を決定する、
請求項1から4のいずれか一項に記載の画像処理装置。 The captured image data includes image pickup device identification information for identifying the image pickup device from which the captured image data was acquired, and the sound data is for identifying the device from which the sound data was acquired. Contains voice device identification information
The display mode determining unit determines the display mode by referring to the related information associated with the audio device identification information and the image pickup device identification information for identifying each of the plurality of image pickup devices.
The image processing apparatus according to any one of claims 1 to 4.
前記表示態様決定部は、前記第1位置情報が示す位置から最も近い位置に対応する前記第2位置情報に対応する前記音データの状態に基づいて前記表示態様を決定する、
請求項1から5のいずれか一項に記載の画像処理装置。 The captured image data includes first position information indicating the position where the captured image data is acquired, and the sound data includes second position information indicating the position where the sound data is acquired. And
The display mode determining unit determines the display mode based on the state of the sound data corresponding to the second position information corresponding to the position closest to the position indicated by the first position information.
The image processing apparatus according to any one of claims 1 to 5.
請求項1から6のいずれか一項に記載の画像処理装置。 The data acquisition unit acquires the plurality of sound data acquired by the directional microphones provided in each of the plurality of imaging devices.
The image processing apparatus according to any one of claims 1 to 6.
前記複数の音データのうち少なくとも一部の音データが示す音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、
前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、
を有し、
前記撮像画像データには、当該撮像画像データが取得された位置を示す第1位置情報が含まれており、前記音データには、当該音データが取得された位置を示す第2位置情報が含まれており、
前記表示態様決定部は、前記第1位置情報が示す位置から最も近い位置に対応する前記第2位置情報に対応する前記音データの状態に基づいて前記表示態様を決定する、画像処理装置。 A plurality of captured image data generated by a plurality of imaging devices photographing a predetermined area, a plurality of sound data acquired at a plurality of positions where the plurality of imaging devices are photographing the predetermined area, and a plurality of sound data. And the data acquisition part to be acquired by associating
A display mode determination for determining a display mode of specific captured image data, which is specific captured image data among the plurality of captured image data, based on a sound state indicated by at least a part of the plurality of sound data. Department and
A display control unit that displays the plurality of captured image data on the display unit so that the specific captured image data is displayed in the display mode determined by the display mode determining unit.
Have a,
The captured image data includes first position information indicating the position where the captured image data is acquired, and the sound data includes second position information indicating the position where the sound data is acquired. And
The display mode determining unit is an image processing device that determines the display mode based on the state of the sound data corresponding to the second position information corresponding to the position closest to the position indicated by the first position information.
複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するステップと、
前記複数の音データのうち少なくとも一部の音データに含まれている音のうち、所定の音以外の音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定するステップと、
決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させるステップと、
を実行する画像処理方法。 The computer
A plurality of captured image data generated by a plurality of imaging devices photographing a predetermined area, a plurality of sound data acquired at a plurality of positions where the plurality of imaging devices are photographing the predetermined area, and a plurality of sound data. And the steps to get associated with
Specific captured image data among the plurality of captured image data based on the state of sounds other than a predetermined sound among the sounds included in at least a part of the plurality of sound data. Steps to determine the display mode of captured image data,
A step of displaying the plurality of captured image data on the display unit so as to display the specific captured image data in the determined display mode, and
Image processing method to execute.
複数の撮像装置が所定の領域を撮影することにより生成した複数の撮像画像データと、前記複数の撮像装置が前記所定の領域を撮影している複数の位置で取得された複数の音データと、を関連付けて取得するデータ取得部と、
前記複数の音データのうち少なくとも一部の音データに含まれている音のうち、所定の音以外の音の状態に基づいて、前記複数の撮像画像データのうち特定の撮像画像データである特定撮像画像データの表示態様を決定する表示態様決定部と、
前記表示態様決定部が決定した表示態様で前記特定撮像画像データを表示させるように前記複数の撮像画像データを表示部に表示させる表示制御部と、
として機能させるためのプログラム。 Computer,
A plurality of captured image data generated by a plurality of imaging devices photographing a predetermined area, a plurality of sound data acquired at a plurality of positions where the plurality of imaging devices are photographing the predetermined area, and a plurality of sound data. And the data acquisition part to be acquired by associating
Specific captured image data among the plurality of captured image data based on the state of sounds other than a predetermined sound among the sounds included in at least a part of the plurality of sound data. A display mode determination unit that determines the display mode of captured image data,
A display control unit that displays the plurality of captured image data on the display unit so that the specific captured image data is displayed in the display mode determined by the display mode determining unit.
A program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154705A JP6853909B1 (en) | 2020-09-15 | 2020-09-15 | Image processing equipment, image processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020154705A JP6853909B1 (en) | 2020-09-15 | 2020-09-15 | Image processing equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6853909B1 true JP6853909B1 (en) | 2021-03-31 |
JP2022048722A JP2022048722A (en) | 2022-03-28 |
Family
ID=75154731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020154705A Active JP6853909B1 (en) | 2020-09-15 | 2020-09-15 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6853909B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3036088B2 (en) * | 1991-01-21 | 2000-04-24 | 日本電信電話株式会社 | Sound signal output method for displaying multiple image windows |
JP2007311942A (en) * | 2006-05-16 | 2007-11-29 | Toshiba Corp | Content display apparatus |
JP2010161493A (en) * | 2009-01-06 | 2010-07-22 | Canon Inc | Image display device and image display method |
JP6371560B2 (en) * | 2014-03-31 | 2018-08-08 | 日本放送協会 | Image display device |
-
2020
- 2020-09-15 JP JP2020154705A patent/JP6853909B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022048722A (en) | 2022-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111885305B (en) | Preview picture processing method and device, storage medium and electronic equipment | |
JP6171263B2 (en) | Remote conference system and remote conference terminal | |
US7460150B1 (en) | Using gaze detection to determine an area of interest within a scene | |
US10523820B2 (en) | High-quality audio/visual conferencing | |
JP6241802B1 (en) | Video distribution system, user terminal device, and video distribution method | |
JP2019220848A (en) | Data processing apparatus, data processing method and program | |
CN112004046A (en) | Image processing method and device based on video conference | |
CN109040654B (en) | Method and device for identifying external shooting equipment and storage medium | |
CN113225646B (en) | Audio and video monitoring method and device, electronic equipment and storage medium | |
WO2019033880A1 (en) | Method and system for performing data customization on basic service data | |
JP6853909B1 (en) | Image processing equipment, image processing methods and programs | |
CN110267011B (en) | Image processing method, image processing apparatus, server, and storage medium | |
JP5550114B2 (en) | Imaging device | |
US11825191B2 (en) | Method for assisting the acquisition of media content at a scene | |
KR101470163B1 (en) | Method of operation of the black box system and black box device of black box system for video delivery | |
JP2016178566A (en) | Imaging controller, imaging control program and imaging control method | |
JP2015173433A (en) | Terminal device and communication system | |
JP2020071519A (en) | Guide device and guide system | |
WO2023074355A1 (en) | Information processing device, information processing method, program, and information processing system | |
CN112184610B (en) | Image processing method and device, storage medium and electronic equipment | |
CN114531564A (en) | Processing method and electronic equipment | |
JPH069391B2 (en) | Video conference system | |
KR20080042462A (en) | Apparatus and method for editing image in portable terminal | |
JP2024000413A (en) | Screen composition method using web conference system | |
JP2002262138A (en) | Image pickup system, video conference system, monitoring system, and information terminal with image pickup function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201008 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201008 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6853909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |