WO2021200226A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2021200226A1
WO2021200226A1 PCT/JP2021/011105 JP2021011105W WO2021200226A1 WO 2021200226 A1 WO2021200226 A1 WO 2021200226A1 JP 2021011105 W JP2021011105 W JP 2021011105W WO 2021200226 A1 WO2021200226 A1 WO 2021200226A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
captured
image data
region
overlapping
Prior art date
Application number
PCT/JP2021/011105
Other languages
English (en)
French (fr)
Inventor
翼 乾
浩太 堀内
翔介 青合
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2021200226A1 publication Critical patent/WO2021200226A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2385Channel allocation; Bandwidth allocation

Definitions

  • a plurality of cameras C (cameras C1 to C3 in the example of FIG. 1, an example of an imaging device) are connected to the information processing device 10.
  • the information processing device 10 acquires captured images (video data) from a plurality of connected cameras C. Further, the information processing device 10 controls a plurality of cameras C.
  • the base station device 30 is a wireless communication device that wirelessly communicates with the information processing device 10.
  • the base station device 30 is, for example, a device corresponding to a radio base station (Node B, eNB, gNB, etc.), and provides the information processing device 10 with a cellular communication service such as NR (New Radio).
  • the base station device 30 may be a wireless relay station.
  • the base station device 30 may be a road base station device such as an RSU (Road Side Unit). Further, the base station device 30 may be an optical overhanging device called RRH (Remote Radio Head).
  • RRH Remote Radio Head
  • the information processing apparatus 10 of the present disclosure allocates image data of each region to different network slices and transmits them according to the degree of overlap of the imaging regions.
  • the information processing apparatus 10 allocates a highly reliable and low-delay slice S1 to the transmission of the area R123, and allocates a low-delay slice S2 to the areas R12, R13, and R23. Further, the information processing apparatus 10 allocates slices S3 for best-effort communication to the areas R1, R2, and R3.
  • the information processing device 10 includes a control unit 11, a storage unit 12, and a communication unit 13.
  • the configuration of the information processing device 10 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it performs information processing described later.
  • the control unit 11 is, for example, a controller, and various programs stored in a storage device inside the information processing device 10 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like are stored in a RAM (Random Access). It is realized by executing Memory) as a work area.
  • the various programs include programs of applications installed in the information processing apparatus 10.
  • the control unit 11 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • the control unit 11 has a duplicate detection unit 111, and realizes or executes an information processing function or operation described below.
  • the internal configuration of the control unit 11 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is a configuration for performing information processing described later.
  • the duplication detection unit 111 detects an overlapping area and a non-overlapping non-overlapping area that overlap with other cameras among the plurality of image data acquired from the cameras C1 to C3, respectively.
  • the duplicate detection unit 111 allocates the detected area to different network slices and transmits the detected area to the server 20 via the communication unit 13.
  • the server 20 receives video data from the information processing device 10 and performs image processing such as generation of three-dimensional data and image composition. As shown in FIG. 3, the server 20 includes a control unit 21, a storage unit 22, and a communication unit 23.
  • the configuration of the server 20 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is a configuration for performing information processing described later.
  • the communication unit 23 is a communication interface (I / F) that communicates with an external device.
  • the communication unit 23 is realized by, for example, a NIC (Network Interface Card) or the like.
  • the communication unit 23 connects to the base station device 30 via a network.
  • the communication unit 23 receives image data from the information processing device 10 via the base station device 30.
  • the storage unit 22 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk.
  • the storage unit 22 stores programs, calculation parameters, and the like used for processing by the control unit 11.
  • the server 20 generates three-dimensional data from image data captured by a plurality of cameras C.
  • the plurality of cameras C1 to C3 are arranged so that each camera C captures an imaging target. That is, at least a part of the imaging regions of the plurality of cameras C1 to C3 is arranged so as to overlap.
  • FIG. 5 is a schematic view of a photographing area, and the photographing range of each camera C1 to C3 is not limited to the example of FIG.
  • each cameras C1 to C3 are set so that some shooting areas overlap.
  • the overlapping shooting areas of the cameras C1 to C3 are the areas R123
  • the overlapping shooting areas of the two cameras C are the areas R12, R13, R23
  • the non-overlapping areas of the one camera C alone are not overlapping.
  • the regions are R1, R2, and R3.
  • the information processing device 10 can calculate the overlapping shooting areas in advance.
  • the information processing device 10 may calculate overlapping shooting areas according to the installation position, shooting direction, angle of view, and the like. For example, the information processing device 10 obtains data such as zoom value and focus distance from the lens of the camera C, acceleration information and angle information of the camera C from the motion sensor, and information on pan and tilt from the tripod attached to the camera C. , Acquire as camera data. The information processing device 10 calculates the imaging region of each camera C based on the camera data. The information processing device 10 has, for example, a map of an imaging site where each camera C is installed, and by mapping the imaging area of each camera C to the map, an overlapping area and a degree of duplication (overlapping image data). Number) is calculated.
  • Such camera data may be acquired in advance according to the shooting scenario. For example, in live music, shooting a drama or a movie, the number and position of cameras used for shooting, the shooting method, etc. may be predetermined according to the time.
  • the information processing device 10 acquires camera data at a time elapsed from the start of shooting in advance, and calculates in advance the overlapping area and the degree of overlap at the time elapsed from the start of shooting based on the acquired camera data. Try to keep it.
  • the information processing device 10 can calculate the overlapping shooting area and the degree of duplication based on the camera data of the plurality of cameras C.
  • the information processing device 10 may calculate the overlapping shooting area and the degree of duplication based on the image recognition result of the image data.
  • the information processing device 10 allocates a region having a high degree of duplication to a slice having a high priority.
  • the information processing apparatus 10 allocates and transmits the image data of the region R123 overlapping in all the cameras C1 to C3 to the slice S1 that communicates with a large capacity and a low delay. Further, the information processing device 10 allocates the image data of the overlapping areas R12, R13, and R23 by the two cameras C to the slice S2 of the large-capacity communication and transmits the image data.
  • the information processing device 10 allocates and transmits the image data of the overlapping areas R1, R2, and R3 by one camera to the slice 3 that communicates with the best effort.
  • the information processing apparatus 10 uses the corresponding slices so that the image data of each region is transmitted under desired transmission conditions (for example, low delay, best effort, etc.) according to the degree of overlap. Slice-related information for this is added to each image data.
  • the slice-related information is information (metadata) for specifying a slice to be assigned according to the purpose and characteristics of the signal to be transmitted (here, image data of each area).
  • the control unit 11 of the information processing device 10 controls the communication unit 13 so as to associate the image data with the slice-related information for specifying the slice to which the image data is to be assigned and transmit the image data to the base station device 30.
  • the base station apparatus 30 assigns each received image data to a slice specified by each slice-related information, and transmits each image data to the server 20 using the assigned slice.
  • the information processing device 10 determines that the image data in the areas R12, R13, and R23 is a signal having a lower priority than the image data in the area R123.
  • the information processing device 10 generates slice-related information for identifying a slice S2 different from the slice S1.
  • the information processing device 20 associates the generated slice-related information with the image data of the regions R12, R13, and R23.
  • the information processing apparatus 10 can allocate and transmit slices according to the characteristics required for the image data in each region, and the user can transmit a large amount of image data having a high priority, that is, a high degree of duplication. , Can be transmitted using low latency communication.
  • control unit 11 of the information processing device 10 has described an example of generating slice-related information for specifying a slice to be assigned to the image data to be transmitted, the present invention is not limited to this.
  • the control unit 11 of the information processing apparatus 10 may simply associate the identification information indicating the type (each area, etc.) of the image data to be transmitted with the image data.
  • the base station apparatus 30 may allocate each image data to the corresponding slices for each type based on the identification information associated with each received image data.
  • the base station apparatus 30 holds in advance the relationship between the degree of duplication of image data and the slices assigned for each degree of duplication, and assigns slices to each image data by referring to the relationship.
  • the information processing apparatus 10 allocates the image data in the region having a high degree of duplication to a slice having a higher priority, in other words, a slice having a higher reliability and a lower delay, but the present invention is not limited to this.
  • the information processing apparatus 10 may assign the image data in the region having a low degree of duplication to the slice having a higher priority. This point will be described with reference to FIGS. 7 and 8.
  • FIG. 7 is a diagram for explaining another arrangement example of the plurality of cameras C1 to C3 according to the embodiment of the present disclosure.
  • FIG. 8 is a chart for explaining other correspondences between the region and the network slice according to the embodiment of the present disclosure.
  • Information processing system 10 Information processing equipment 11, 21 Control unit 12, 22 Storage unit 13, 23 Communication unit 20 Server 30 Base station equipment 111 Duplicate detection unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

情報処理装置(10)は、制御部(11)を備える。制御部(11)は、第1の撮像装置(C1)が撮像した第1の撮像画像から、第2の撮像装置(C2)が撮像した第2の撮像画像と撮像領域が重複する重複領域と、第2の撮像画像と撮像領域が重複しない非重複領域と、を抽出する。制御部(11)は、重複領域の第1の撮像画像と、非重複領域の第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 従来、無線通信を利用して各種データのやり取りを行う無線通信技術が存在する。また、例えば、複数のカメラが撮影した画像を離れた位置から確認する技術が知られている。
特開平9-289606号公報
 ここで、無線ネットワークを介して複数のカメラ画像を情報処理装置に送信する場合、カメラの台数が増えると送信する画像情報が増え、送信に必要な無線リソースが増加してしまう。また、大容量の信号を伝送するため、伝送路の状態によっては、信号遅延や送信エラーなどが発生してしまう恐れがあり、情報処理装置での処理に悪影響を与えてしまう恐れがあった。
 そこで、本開示では、リソースの利用効率を向上させることができる情報処理装置、情報処理方法及びプログラムを提供する。
 本開示によれば、情報処理装置が提供される。情報処理装置は、制御部を備える。制御部は、第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出する。制御部は、前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる。
本開示の提案技術が適用される情報処理システムの概要を示す図である。 本開示の提案技術の概要を説明するための図である。 本開示の実施形態に係る情報処理システムの構成の一例を示す図である。 本開示の実施形態係る複数のカメラの配置例を説明するための図である。 本開示の実施形態に係る複数のカメラの撮影領域の一例を示す模式図である。 本開示の実施形態に係る領域とネットワークスライスとの対応関係を説明するための図表である。 本開示の実施形態に係る複数のカメラの他の配置例を説明するための図である。 本開示の実施形態に係る領域とネットワークスライスとの他の対応関係を説明するための図表である。 本開示の実施形態にかかる通信処理を説明するためのシーケンス図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の説明において、具体例として例えば数値を挙げて説明する場合があるが、かかる数値は一例であり、別の数値を使用してもよい。
 なお、説明は以下の順序で行うものとする。
  1.はじめに
    1.1.提案技術の概要
  2.実施形態
    2.1.情報処理システム
    2.2.重複領域の検出
    2.3.通信処理
  3.その他の実施形態
  4.補足
 <<1.はじめに>>
 <1.1.提案技術の概要>
 まず、図1、図2を用いて、本開示に係る提案技術の概要について説明する。図1は、本開示の提案技術が適用される情報処理システム1の概要を示す図である。図2は、本開示の提案技術の概要を説明するための図である。本開示に係る提案技術は、図1に示す情報処理システム1で実施される。
 図1に示すように、情報処理システム1は、情報処理装置10と、サーバ20と、を有する。情報処理装置10及びサーバ20は、基地局装置30を介して通信を行う。
 サーバ20は、基地局装置30を介して情報処理装置10から映像データを受信する。サーバ20は、受信した映像データを用いて、3次元データの生成や画像合成等の処理を行う。
 情報処理装置10には、複数のカメラC(図1の例では、カメラC1~C3、撮像装置の一例)が接続される。情報処理装置10は、接続される複数のカメラCから撮像画像(映像データ)を取得する。また、情報処理装置10は、複数のカメラCの制御を行う。
 基地局装置30は、情報処理装置10と無線通信する無線通信装置である。基地局装置30は、例えば、無線基地局(Node B、eNB、gNB、など)に相当する装置であり、情報処理装置10にNR(New Radio)などのセルラー通信サービスを提供する。基地局装置30は、無線リレー局であってもよい。基地局装置30は、RSU(Road Side Unit)等の路上基地局装置であってもよい。また、基地局装置30は、RRH(Remote Radio Head)と呼ばれる光張り出し装置であってもよい。
 基地局装置30は、例えばネットワークを介してサーバ20と接続し、例えば映像データなど情報処理装置10から取得した信号をサーバ20に送信する。
 このように、情報処理装置10及びサーバ20が、基地局装置30を介して情報を送受信することで、サーバ20は、情報処理装置10から例えば映像データを受信することができる。
 ここで、情報処理装置10が、映像データを同品質の伝送路を用いて送信すると、通信環境によってはデータの欠損やエラー、伝送遅延等が発生してしまい、サーバ20での処理(例えば、3次元データの生成処理や画像合成処理)に悪影響を与える恐れがあるという問題があった。また、データの欠損やエラー、伝送遅延等を避けるために、高信頼・低遅延でデータを伝送しようとすると、大容量の無線リソースを長時間占有してしまう恐れがあり、無線リソースの利用効率が低下する恐れがあった。特に、情報処理装置10に接続するカメラCの台数が増えると、伝送するデータも増加してしまうため、無線リソースの利用効率がより問題となってしまう。
 ここで、近年、LTEに対する次世代の無線アクセス方式としてNR(New Radio)の検討が進められている。NR及び次世代コア網においては、eMBB(Enhanced Mobile Broadband)、mMTC(Massive Machine Type Communications)、及びURLLC(Ultra Reliable and Low Latency Communications)を含む様々なユースケースを想定した複数形態の通信をひとつのネットワークで収容するためのスライシング技術(Network Slicing)が検討されている。スライシング技術によれば、スライス又はネットワークスライスと呼ばれる論理ネットワークをひとつの物理ネットワークにおいて共存させることが可能である。これにより、ユーザが利用するサービスの要求条件に合わせて効率的にネットワークを提供することが可能となる。
 そこで、提案技術では、情報処理装置10は、複数のカメラCで撮像した複数の画像データのうち、撮像領域が重複する重複領域と、重複しない非重複領域とにわけ、各領域の画像データをそれぞれ異なるネットワークスライスに割り当ててサーバ20に送信する。
 例えば、図2に示すように、複数のカメラC1~C3で同じ撮影対象を撮影すると、各カメラCの映像は、他のカメラCの映像と撮影領域の少なくとも一部が重複する。ここで、撮像領域が重複するとは、例えば、カメラC1で撮像した被写体が、他のカメラC2でも撮像されることを意味する。
 図2の例では、領域R123は、全てのカメラC1~C3が撮影した撮像領域であり、領域R12、R23、R13は、少なくとも2台のカメラCが撮影した撮像領域である。また、領域R1、R2、R3は、1台のカメラCが撮影した撮影領域である。
 このように、複数のカメラC1~C3で撮影を行うと、その一部が重複して撮影される場合がある。この場合において、本開示の情報処理装置10は、撮像領域の重複度に応じて、各領域の画像データを異なるネットワークスライスに割り当てて送信する。
 例えば、カメラC1で撮像した画像データのうち、カメラC2、C3と撮像領域が重複する領域R123の画像データは、スライスS1に割り当てられる。また、カメラC1で撮像した画像データのうち、カメラC2と撮像領域が重複する領域R12、及び、カメラC3と撮像領域が重複する領域R13の画像データは、スライスS2に割り当てられる。カメラC1で撮影した画像データのうち、他のカメラC2、C3と撮像領域が重複しない非重複領域R1の画像データは、スライスS3に割り当てられる。
 同様に、カメラC2で撮像した画像データのうち、カメラC1、C3と撮像領域が重複する領域R123の画像データは、スライスS1に割り当てられる。また、カメラC2で撮像した画像データのうち、カメラC1と撮像領域が重複する領域R12、及び、カメラC3と撮像領域が重複する領域R23の画像データは、スライスS2に割り当てられる。カメラC2で撮影した画像データのうち、他のカメラC1、C3と撮像領域が重複しない非重複領域R2の画像データは、スライスS3に割り当てられる。
 また、カメラC3で撮像した画像データのうち、カメラC1、C2と撮像領域が重複する領域R123の画像データは、スライスS1に割り当てられる。また、カメラC3で撮像した画像データのうち、カメラC1と撮像領域が重複する領域R13、及び、カメラC2と撮像領域が重複する領域R23の画像データは、スライスS2に割り当てられる。カメラC3で撮影した画像データのうち、他のカメラC1、C2と撮像領域が重複しない非重複領域R3の画像データは、スライスS3に割り当てられる。
 このように、情報処理装置10は、カメラC1(第1の撮像装置の一例)が撮像した画像データ(第1の撮像画像の一例)から他のカメラ(例えば、カメラC2。第2の撮像装置の一例)が撮像した画像データ(第2の撮像画像の一例)と撮像領域が重複する領域R12(重複領域)と、重複しない領域R1(非重複領域)とを抽出する。
 情報処理装置10は、領域R12の画像データと、領域R1の画像データとをそれぞれ異なるネットワークスライスに割り当てる。
 なお、図2に示すように、他のカメラが複数の場合(例えば、カメラC2、C3)、情報処理装置10は、複数の他のカメラがそれぞれ撮像した複数の画像データ(第2の撮像画像の一例)の撮像領域に基づき、カメラC1が撮像した画像データ(第1の撮像装置の一例)の撮像領域と重複する画像データ(第2の撮像画像の一例)の数(重複度)に応じて、重複する領域R12、R13、R23、R123(重複領域の一例)を抽出する。
 情報処理装置10は、抽出した領域R12、R13、R23、R123をネットワークスライスに割り当てる場合、重複度に応じて異なるネットワークスライスに割り当てる。
 情報処理装置10は、後段の処理に応じて、各スライスS1~S3を割り当てる。例えば、サーバ20が各画像データから3次元データを生成する場合、撮像領域が重複する領域の画像データを使用する。この場合、情報処理装置10は、各画像データの重複度が高いものから順に、より高信頼・低遅延なスライスを割り当てる。
 例えば、図2の場合、情報処理装置10は、領域R123の送信に高信頼・低遅延なスライスS1を割り当て、領域R12、R13、R23に低遅延なスライスS2を割り当てる。また情報処理装置10は、領域R1、R2、R3にベストエフォートで通信するスライスS3を割り当てる。
 これにより、情報処理装置10は、後段のサーバ20の処理で重要な領域R123の画像データをより確実かつ高速に送信することができる。また、情報処理装置10は、サーバ20での処理において重要でない領域R1、R2、R3の画像データをベストエフォートで送信するため、全ての画像データを高信頼・低遅延で送信する場合に比べて無線リソースの利用効率を向上させることができる。
 <<2.実施形態>>
 <2.1.情報処理システム>
 図3は、本開示の実施形態に係る情報処理システム1の構成の一例を示す図である。情報処理システム1は、情報処理装置10と、サーバ20と、を有する。
 [情報処理装置10]
 情報処理装置10は、例えば、複数のカメラC1~C3を制御する制御装置である。情報処理装置10は、複数のカメラC1~C3が撮影した画像データを取得し、サーバ20に送信する。
 図3に示すように、情報処理装置10は、制御部11と、記憶部12と、通信部13と、を有する。なお、情報処理装置10の構成は、図3に示す構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
 (通信部13)
 通信部13は、外部装置との通信を行う通信インタフェース(I/F)である。通信部13は、例えば、NIC(Network Interface Card)等によって実現される。例えば、通信部13は、基地局装置30と無線通信を行うことでコアネットワークに接続する。通信部13は、基地局装置30を介してサーバ20に画像データ(撮像画像)を送信する。
 (記憶部12)
 記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、制御部11の処理に用いられるプログラムや演算パラメータ等を記憶する。
 (制御部11)
 制御部11は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。例えば、この各種プログラムには、情報処理装置10にインストールされたアプリケーションのプログラムが含まれる。また、制御部11は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
 制御部11は、重複検出部111を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部11の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
 (重複検出部111)
 重複検出部111は、カメラC1~C3からそれぞれ取得した複数の画像データのうち、他のカメラと重複している重複領域及び重複していない非重複領域を検出する。重複検出部111は、検出した領域を異なるネットワークスライスに割り当て、通信部13を介してサーバ20に送信する。
 [サーバ20]
 サーバ20は、情報処理装置10から映像データを受信し、3次元データの生成や画像合成等の画像処理を行う。
 図3に示すように、サーバ20は、制御部21と、記憶部22と、通信部23と、を有する。なお、サーバ20の構成は、図3に示す構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
 (通信部23)
 通信部23は、外部装置との通信を行う通信インタフェース(I/F)である。通信部23は、例えば、NIC(Network Interface Card)等によって実現される。例えば、通信部23は、基地局装置30とネットワークを介して接続する。通信部23は、基地局装置30を介して情報処理装置10から画像データを受信する。
 (記憶部22)
 記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部22は、制御部11の処理に用いられるプログラムや演算パラメータ等を記憶する。
 (制御部21)
 制御部21は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、サーバ20内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。例えば、この各種プログラムには、サーバ20にインストールされたアプリケーションのプログラムが含まれる。また、制御部21は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部21は、通信部23を介して受信した画像データから3次元データの生成や画像合成等の画像処理を行う。
 <2.2.重複領域の検出>
 ここで、図4~図6を用いて情報処理システム1での重複領域の検出について説明する。図4は、本開示の実施形態係る複数のカメラC1~C3の配置例を説明するための図である。図5は、本開示の実施形態に係る複数のカメラC1~C3の撮影領域の一例を示す模式図である。図6は、本開示の実施形態に係る領域とネットワークスライスとの対応関係を説明するための図表である。
 まず、図4を用いて、本開示の実施形態に係る複数のカメラCの配置について説明する。なお、ここでは、サーバ20が、複数のカメラCで撮像した画像データから3次元データを生成するものとする。
 この場合、図4に示すように、複数のカメラC1~C3は、各カメラCが撮像対象を撮像するように配置される。すなわち、複数のカメラC1~C3の撮像領域の少なくとも一部が重複するように配置される。
 このときの各カメラC1~C3の撮影領域について図5を用いて説明する。なお、図5は、撮影領域の模式図であり、各カメラC1~C3の撮影範囲は図5の例に限定されない。
 図5に示すように、各カメラC1~C3は、一部の撮影領域が重複するように設定される。ここでは、カメラC1~C3で重複する撮影領域を領域R123、2台のカメラCで重複する撮影領域を領域R12、R13、R23、1台のカメラCのみで撮影領域が重複しない非重複領域を領域R1、R2、R3とする。
 例えば、カメラC1~C3の設置位置や撮影方向、画角等が固定されている場合、情報処理装置10は、重複する撮影領域を予め算出しておくことができる。
 あるいは、情報処理装置10は、かかる設置位置や撮影方向、画角等に応じて重複する撮影領域を算出するようにしてもよい。例えば、情報処理装置10は、カメラCのレンズからズーム値やフォーカス距離などのデータを、モーションセンサからカメラCの加速度情報や角度情報を、カメラCに装着された三脚からパンやチルトに関する情報を、カメラデータとして取得する。情報処理装置10は、カメラデータに基づいて各カメラCの撮像領域を算出する。情報処理装置10は、例えば各カメラCが設置される撮像現場のマップを有しており、各カメラCの撮像領域をマップにマッピングすることで、重複する領域及び重複度(重複する画像データの数)を算出する。
 なお、かかるカメラデータを、撮影シナリオに沿って予め取得しておいてもよい。例えば音楽ライブ、ドラマや映画の撮影などでは、撮影に使用するカメラの台数や位置、撮影方法等が時刻に沿って予め決められていることがある。この場合、情報処理装置10は、予め撮影開始から経過した時刻でのカメラデータを取得しておき、取得したカメラデータに基づき、撮影開始から経過した時刻での重複領域及び重複度を予め算出しておくようにする。
 このように、情報処理装置10は、複数のカメラCのカメラデータに基づいて、重複する撮影領域及び重複度を算出することができる。
 あるいは、情報処理装置10が、画像データから重複する撮影領域及び重複度を算出するようにしてもよい。例えば、情報処理装置10は、各カメラC1~C3の画像データの画像認識を行い、画像データに含まれる撮像対象を認識する。情報処理装置10は、異なるカメラCの画像データに同じ撮像対象が含まれる場合、かかる撮像対象を含む領域を重複領域として検出する。また、同じ撮像対象が含まれるカメラCの数を重複度として検出する。
 このように、情報処理装置10が、画像データの画像認識結果に基づいて重複する撮影領域及び重複度を算出するようにしてもよい。
 ここで、サーバ20は、上述したように、画像データから3次元データを生成する。この場合、サーバ20は、例えば、各カメラC1~C3の画像データから同じ撮像対象を撮像した画素を検出し、検出した画素を用いて撮像対象までの距離(奥行き情報)を算出する。あるいは、サーバ20が、かかる奥行き情報を用いて自由視点画像を生成するようにしてもよい。
 このように、サーバ20が3次元データや自由視点画像を生成する場合、サーバ20での画像処理において、複数のカメラC1~C3で撮像した画像データのうち、同じ撮像対象を撮像した領域が重要になる。
 そこで、情報処理装置10は、重複度が高い領域を優先度が高いスライスに割り当てる。図6に示す例では、情報処理装置10は、全てのカメラC1~C3で重複する領域R123の画像データを大容量かつ低遅延で通信を行うスライスS1に割り当てて送信する。また、情報処理装置10は、2台のカメラCで重複する領域R12、R13、R23の画像データを大容量通信のスライスS2に割り当てて送信する。情報処理装置10は、1台のカメラで重複する領域R1、R2、R3の画像データをベストエフォートで通信するスライス3に割り当てて送信する。
 より具体的には、情報処理装置10は、各領域の画像データが、重複度に応じて所望の伝送条件(例えば、低遅延やベストエフォート等)で伝送されるよう、対応するスライスを利用するためのスライス関連情報を各画像データに付与する。
 ここで、スライス関連情報とは、送信する信号(ここでは各領域の画像データ)の用途や特性に応じて割り当てられるべきスライスを特定するための情報(メタデータ)である。情報処理装置10の制御部11は、画像データと、当該画像データが割り当てられるべきスライスを特定するためのスライス関連情報と、を関連付けて基地局装置30に送信するよう通信部13を制御する。基地局装置30は、受信した各画像データをそれぞれのスライス関連情報により特定されるスライスに割り当てることで、割り当てられたスライスを用いて各画像データをサーバ20に送信する。
 例えば、情報処理装置10は、領域R123の画像データを、優先度の高い信号であり、大容量、低遅延で送信する必要がある信号と判定する。情報処理装置10は、当該領域R123の画像データに対して大容量、低遅延での送信が確保されるようなスライスS1を特定するためのスライス関連情報を生成する。情報処理装置10は、生成したスライス関連情報と、領域R123の画像データと、を関連付ける。
 また、情報処理装置10は、領域R12、R13、R23の画像データを、領域R123の画像データよりも優先度の低い信号であると判定する。情報処理装置10は、上記スライスS1とは異なるスライスS2を特定するためのスライス関連情報を生成する。情報処理装置20は、生成したスライス関連情報と、領域R12、R13、R23の画像データと、を関連付ける。
 また、情報処理装置10は、領域R1、R2、R3の画像データを、領域R12、R13、R23の画像データよりも優先度の低い信号であると判定する。情報処理装置10は、上記スライスS2とは異なるスライスS3を特定するためのスライス関連情報を生成する。情報処理装置20は、生成したスライス関連情報と、領域R1、R2、R3の画像データと、を関連付ける。
 このように、情報処理装置10は、各領域の画像データに求められる特性に応じたスライスを割り当てて送信することができ、ユーザは優先度の高い、即ち、重複度が高い画像データを大容量、低遅延な通信を用いて送信することができる。
 なお、ここでは、情報処理装置10の制御部11が、送信する画像データに割り当てるスライスを特定するためのスライス関連情報を生成する例を説明したが、これに限定されない。情報処理装置10の制御部11は、単に送信する画像データの種別(各領域等)を示す識別情報を、当該画像データに関連付けるようにしてもよい。この場合、基地局装置30が、受信した各画像データに関連付けられた識別情報に基づき、各画像データを、各種別に対応するスライスに割り当てるようにしてもよい。なお、基地局装置30は、例えば画像データの重複度と、かかる重複度ごとに割り当てるスライスの関係を予め保持しており、かかる関係を参照することで、各画像データにスライスを割り当てる。
 このように、基地局装置30が、画像データにスライスを割り当てることで、各画像データを異なるネットワークスライスで送信することもできる。
 なお、上述した例では、情報処理装置10が、重複度が高い領域の画像データほど優先度が高い、換言すると、より高信頼、低遅延なスライスに割り当てていたが、これに限定されない。情報処理装置10が、重複度が低い領域の画像データほど、優先度が高いスライスに割り当てるようにしてもよい。かかる点について、図7及び図8を用いて説明する。
 図7は、本開示の実施形態に係る複数のカメラC1~C3の他の配置例を説明するための図である。図8は、本開示の実施形態に係る領域とネットワークスライスとの他の対応関係を説明するための図表である。
 例えば、情報処理装置10が複数のカメラC1~C3が撮像した画像データを合成して一枚の画像データを生成するものとする。
 この場合、図7に示すように、複数のカメラC1~C3は、例えば一直線上、あるいは同一平面上に、同一の撮像方向に向けて配置される。スタジアム全体や舞台全体など、広い撮影対象を撮像したい場合、複数のカメラC1~C3を用いることで、1台のカメラで撮像するよりも高解像度の画像データが得られる。
 複数の画像データを合成して一枚の画像データを生成する場合、複数の画像データで重複する領域は、重複していない領域と比較して情報量が多くなる。そのため、ある画像データの重複領域に欠損やエラーが発生しても、サーバ20は、他の画像データの重複領域を用いて補正して一枚の画像データを生成することができる。従って、重複領域は、重複していない非重複領域に比べて、重要度が低い領域となる。かかる重要度は、重複率が高いほど低くなる。
 そこで、例えば、サーバ20が複数の画像データを合成する場合、情報処理装置10は、重複度が低い領域を優先度が高いスライスに割り当てる。図8に示す例では、情報処理装置10は、1台のカメラで重複する領域R1、R2、R3の画像データを大容量かつ低遅延で通信を行うスライスS1に割り当てて送信する。また、情報処理装置10は、2台のカメラCで重複する領域R12、R13、R23の画像データを大容量通信のスライスS2に割り当てて送信する。情報処理装置10は、全てのカメラC1~C3で重複する領域R123の画像データをベストエフォートで通信するスライス3に割り当てて送信する。
 なお、ここでは、サーバ20が複数の画像データを合成する場合、複数のカメラC1~C3が一直線上又は同一平面上に、同一の撮像方向に向けて配置されるとしたが、これに限定されない。複数のカメラC1~C3がそれぞればらばらに配置されてもよく、異なる撮像方向に向けて配置されてもよい。例えば、所定の場所を複数の監視カメラで撮像する場合、各監視カメラはそれぞれ異なる場所に異なる撮像方向となるように設けられる場合がある。この場合でも、撮像領域が重複する画像データは、欠損やエラーが発生しても互いに補完することができるため、情報処理装置10は、重複度が低い領域の画像データほど優先度を高くして送信するものとする。
 <2.3.通信処理>
 図9は、本開示の実施形態にかかる通信処理を説明するためのシーケンス図である。
 図9に示すように、情報処理装置10は、画像データの重複領域を検出する(ステップS301)。より具体的には、情報処理装置10は、複数のカメラC1~C3の各画像データから重複度ごとに領域分割して、重複度ごとの重複領域を検出する。
 次に、情報処理装置10は、検出した各領域の画像データを重複度ごとにそれぞれ異なるスライスに割り当てる(ステップS302)。
 情報処理装置20は、各スライスで各領域の画像データ(映像)を送信する(ステップS303)。
 情報処理システム1は、上述した通信処理を、例えば送信する映像の1フレームごとに実行する。
 以上のように、本実施形態では、情報処理装置10が、複数のカメラが撮像した画像データを、各カメラの撮像領域の重複度に応じた領域にわける。情報処理装置10は、各領域の画像データをそれぞれ異なるネットワークスライスに割り当てる。
 これにより、サーバ20での画像処理に与える影響を抑えつつ、無線リソースの利用効率の低下を抑制することができる。
 <<3.その他の実施形態>>
 上記の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
 上記の実施形態では、各領域の画像データをそれぞれ異なるネットワークスライスに割り当てるとしたが、これに限定されない。例えば画像データには、深度情報や輝度情報、色差情報等の複数の情報が含まれる。そのため、情報処理装置10が、画像データに含まれる各情報をそれぞれ異なるネットワークスライスに割り当てるようにしてもよい。
 例えば、サーバ20が画像データから3次元データや自由視点画像を生成する場合は、色差情報より深度情報がより重要な情報となる。そこで、情報処理装置10は、例えば、重複度が高い領域R123の画像データをサーバ20に送信する場合、深度情報を最も優先度が高いネットワークスライス(例えば、スライスS1)に割り当てる。また、情報処理装置10は、深度情報以外の情報を優先度が低いネットワークスライス(例えば、スライスS2)に割り当てる。
 このように、情報処理装置10が、各領域の画像データに含まれる複数の情報を、それぞれ異なるネットワークスライスに割り当てて送信するようにしてもよい。
 これは、例えば重複度が高い領域の範囲が広い場合に有効である。例えば、領域R123の範囲が広いと、優先度が高いスライスであっても、通信環境によっては、遅延や欠損、エラーなどが発生する恐れが高くなる。このような場合に、情報処理装置10は、領域R123の画像データの複数の情報を異なるネットワークスライスに割り当てる、より具体的には、領域R123の深度情報を優先度の高いスライスに割り当てる。これにより、サーバ20での画像処理に重要な深度情報をより確実に高信頼、低遅延で送信することができる。
 上記の実施形態では、カメラの台数を3台としたが、これに限定されない。カメラは複数あればよく、2台であっても4台以上であってもよい。
 上記の実施形態では、複数のカメラに対して1つの情報処理装置10を設ける場合について説明したが、これに限定されない。例えば、複数のカメラにそれぞれ情報処理装置10を設けてもよい。この場合、情報処理装置10は、他のカメラの撮像領域を取得することで、自装置に対応するカメラの画像データを重複度に応じた領域に分割する。情報処理装置10は、領域ごとにそれぞれ異なるネットワークスライスを割り当てる。なお、情報処理装置10は、カメラ内部に搭載されてもよく、カメラとは別の装置としてもよい。
 上記の実施形態の情報処理装置10、サーバ20、又は、基地局装置30を制御する制御装置は、専用のコンピュータシステム、又は汎用のコンピュータシステムによって実現してもよい。
 例えば、上述の動作(例えば、通信処理)を実行するための通信プログラムを、光ディスク、半導体メモリ、磁気テープ、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に格納して配布する。そして、例えば、該プログラムをコンピュータにインストールし、上述の処理を実行することによって制御装置を構成する。このとき、情報処理装置10、サーバ20、又は、基地局装置30の外部の装置(例えば、パーソナルコンピュータ)であってもよい。また、制御装置は、情報処理装置10、サーバ20、又は、基地局装置30の内部の装置(例えば、制御部11、制御部21)であってもよい。
 また、上記通信プログラムをインターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OS(Operating System)とアプリケーションソフトとの協働により実現してもよい。この場合には、OS以外の部分を媒体に格納して配布してもよいし、OS以外の部分をサーバ装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。
 また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
 また、上述の実施形態は、処理内容を矛盾させない領域で適宜組み合わせることが可能である。また、上述の実施形態のシーケンス図等に示された各ステップは、適宜順序を変更することが可能である。
 また、例えば、本実施形態は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
 なお、本実施形態において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、例えば、本実施形態は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 <<4.補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的ではない。つまり、本開示にかかる技術は、上記の効果とともに、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出し、
 前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる、制御部と、
 を備える情報処理装置。
(2)
 制御部は、
 複数の前記第2の撮像装置がそれぞれ撮像した複数の前記第2の撮像画像の前記撮像領域に基づき、前記第1の撮像画像の前記撮像領域と重複する前記第2の撮像画像の数に応じて、前記第1の撮像画像の前記重複領域を抽出し、
 前記重複領域の前記第1の撮像画像をネットワークスライスに割り当てる場合、前記第1の撮像画像と重複する前記第2の撮像画像の数に応じて異なるネットワークスライスに割り当てる、
 (1)に記載の情報処理装置。
(3)
 前記制御部は、前記重複領域を優先度の高いネットワークスライスに割り当てる、(1)又は(2)に記載の情報処理装置。
(4)
 前記制御部は、前記非重複領域を優先度の高いネットワークスライスに割り当てる、(1)又は(2)に記載の情報処理装置。
(5)
 前記制御部は、前記第1の撮像画像の前記重複領域に含まれる複数の画像情報をそれぞれ異なるネットワークスライスに割り当てる、(1)~(3)のいずれか1つに記載の情報処理装置。
(6)
 前記画像情報は、深度情報、輝度情報、又は、色差情報の少なくとも1つである、(5)に記載の情報処理装置。
(7)
 第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出し、
 前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる、
 情報処理方法。
(8)
 コンピュータを
 第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出し、
 前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる、制御部、
 として機能させるプログラム。
 1     情報処理システム
 10    情報処理装置
 11、21 制御部
 12、22 記憶部
 13、23 通信部
 20    サーバ
 30    基地局装置
 111   重複検出部

Claims (8)

  1.  第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出し、
     前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる、制御部と、
     を備える情報処理装置。
  2.  制御部は、
     複数の前記第2の撮像装置がそれぞれ撮像した複数の前記第2の撮像画像の前記撮像領域に基づき、前記第1の撮像画像の前記撮像領域と重複する前記第2の撮像画像の数に応じて、前記第1の撮像画像の前記重複領域を抽出し、
     前記重複領域の前記第1の撮像画像をネットワークスライスに割り当てる場合、前記第1の撮像画像と重複する前記第2の撮像画像の数に応じて異なるネットワークスライスに割り当てる、
     請求項1に記載の情報処理装置。
  3.  前記制御部は、前記重複領域を優先度の高いネットワークスライスに割り当てる、請求項1に記載の情報処理装置。
  4.  前記制御部は、前記非重複領域を優先度の高いネットワークスライスに割り当てる、請求項1に記載の情報処理装置。
  5.  前記制御部は、前記第1の撮像画像の前記重複領域に含まれる複数の画像情報をそれぞれ異なるネットワークスライスに割り当てる、請求項1に記載の情報処理装置。
  6.  前記画像情報は、深度情報、輝度情報、又は、色差情報の少なくとも1つである、請求項5に記載の情報処理装置。
  7.  第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出し、
     前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる、
     情報処理方法。
  8.  コンピュータを
     第1の撮像装置が撮像した第1の撮像画像から、第2の撮像装置が撮像した第2の撮像画像と撮像領域が重複する重複領域と、前記第2の撮像画像と前記撮像領域が重複しない非重複領域と、を抽出し、
     前記重複領域の前記第1の撮像画像と、前記非重複領域の前記第1の撮像画像と、をそれぞれ異なるネットワークスライスに割り当てる、制御部、
     として機能させるプログラム。
PCT/JP2021/011105 2020-03-30 2021-03-18 情報処理装置、情報処理方法及びプログラム WO2021200226A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020061031 2020-03-30
JP2020-061031 2020-03-30

Publications (1)

Publication Number Publication Date
WO2021200226A1 true WO2021200226A1 (ja) 2021-10-07

Family

ID=77928428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/011105 WO2021200226A1 (ja) 2020-03-30 2021-03-18 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2021200226A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191519A (ja) * 2011-03-11 2012-10-04 Panasonic Corp 無線映像送信装置および無線映像受信装置ならびにこれらを備えた無線映像伝送システム
JP2012204843A (ja) * 2011-03-23 2012-10-22 Panasonic Corp ストリーミング中継装置、ストリーミング中継集積回路、ストリーミング中継方法、及びストリーミング中継プログラム
JP2013051637A (ja) * 2011-08-31 2013-03-14 Canon Inc 符号化装置及び符号化方法
JP2019054415A (ja) * 2017-09-15 2019-04-04 ソニー株式会社 情報処理装置および方法
JP2019140483A (ja) * 2018-02-08 2019-08-22 キヤノン株式会社 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
WO2019198501A1 (ja) * 2018-04-10 2019-10-17 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および画像伝送システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191519A (ja) * 2011-03-11 2012-10-04 Panasonic Corp 無線映像送信装置および無線映像受信装置ならびにこれらを備えた無線映像伝送システム
JP2012204843A (ja) * 2011-03-23 2012-10-22 Panasonic Corp ストリーミング中継装置、ストリーミング中継集積回路、ストリーミング中継方法、及びストリーミング中継プログラム
JP2013051637A (ja) * 2011-08-31 2013-03-14 Canon Inc 符号化装置及び符号化方法
JP2019054415A (ja) * 2017-09-15 2019-04-04 ソニー株式会社 情報処理装置および方法
JP2019140483A (ja) * 2018-02-08 2019-08-22 キヤノン株式会社 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
WO2019198501A1 (ja) * 2018-04-10 2019-10-17 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および画像伝送システム

Similar Documents

Publication Publication Date Title
US11373319B2 (en) System and method for optimizing dynamic point clouds based on prioritized transformations
US20220006922A1 (en) Coordinated multi-viewpoint image capture
CN112866627B (zh) 一种三维视频监控方法及相关设备
US20220006945A1 (en) Coordinated multi-viewpoint image capture
US20190122423A1 (en) Method and Device for Three-Dimensional Presentation of Surveillance Video
CN113473010B (zh) 抓拍方法、装置、存储介质及电子装置
CN112261353A (zh) 一种视频监控分流方法、系统以及计算机可读存储介质
CN109272576B (zh) 一种数据处理方法、mec服务器、终端设备及装置
WO2021200226A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20190124274A1 (en) Image processing apparatus, imaging system, communication system, image processing method, and recording medium
KR20200035692A (ko) 드론 관제 방법과 시스템 및 이를 위한 장치
EP3507986B1 (en) Determining inter-view prediction areas in images captured with a multi-camera device
WO2021041163A1 (en) Method and system for control of a digital camera system
Lin et al. Real-time low-cost omni-directional stereo vision via bi-polar spherical cameras
KR101788005B1 (ko) 복수의 모바일 단말들을 이용한 다시점 영상 생성 방법
CN113538584B (zh) 摄像机自协商监控处理方法、系统及摄像机
CN111263081B (zh) 曝光统计值的确定方法和装置、存储介质及电子装置
CN114245006A (zh) 一种处理方法、装置及系统
WO2021200212A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2021072521A (ja) 撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体
US20230326311A1 (en) Wireless system, terminal apparatus, base station, wireless transmission method, and wireless transmission program
CN116723264B (zh) 确定目标位置信息的方法、设备及存储介质
WO2022213606A1 (zh) 一种摄像机数据处理方法及装置
JP2019003325A (ja) 画像処理装置、画像処理方法及びプログラム
WO2021229681A1 (ja) 通信制御方法、通信制御装置、通信制御システム、及び通信制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21779990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21779990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP