WO2022254798A1 - 信号処理システムおよび信号処理方法 - Google Patents

信号処理システムおよび信号処理方法 Download PDF

Info

Publication number
WO2022254798A1
WO2022254798A1 PCT/JP2022/004996 JP2022004996W WO2022254798A1 WO 2022254798 A1 WO2022254798 A1 WO 2022254798A1 JP 2022004996 W JP2022004996 W JP 2022004996W WO 2022254798 A1 WO2022254798 A1 WO 2022254798A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
processing
signal processing
image
time
Prior art date
Application number
PCT/JP2022/004996
Other languages
English (en)
French (fr)
Inventor
真人 山根
拓也 宮崎
雄生 杉江
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022254798A1 publication Critical patent/WO2022254798A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a signal processing system and a signal processing method, and more particularly to a signal processing system and a signal processing method that achieve display optimization in real-time services.
  • Patent Document 1 a control device having a monitor for viewing images provided by a remotely located camera presents an emulated image for display before executing a command to the camera, Disclosed is a method of remote control that is imperceptible to delay.
  • the processing time for each server on the cloud may differ for each server and application. That is, the delay time may differ for each software signal processing. Therefore, for example, when a plurality of processing results are integrated into one image in the order in which each processing is completed and displayed, the acquisition time differs for each image region, so there is a possibility of an inappropriate display.
  • the present disclosure has been made in view of this situation, and achieves display optimization in real-time services.
  • the signal delay amount from the transmitting device to the receiving device is set according to the signal processing content of the processing device and transmitted to the receiving device.
  • FIG. 1 is a block diagram showing a configuration example of a signal processing system to which technology according to the present disclosure can be applied;
  • FIG. It is a block diagram which shows the hardware configuration example of a computer.
  • FIG. It is a figure which shows the functional structural example of an integration apparatus. It is a figure explaining the setting of signal delay amount. It is a figure explaining the flow from acquisition to an output of an image signal.
  • FIG. 10 is a diagram showing an example of a divided image;
  • FIG. It is a figure which shows the example which performs a signal process with respect to several image signals.
  • FIG. 4 is a diagram illustrating latency priority synchronization; It is a figure explaining time priority synchronization.
  • the signal processing system 1 is composed of a transmission device 10, an imaging device 11, a reception device 20, a display device 21, a server 30, an operation terminal 40, and an integration device 50.
  • a plurality of imaging devices 11 are provided, and the number of transmission devices 10 corresponding to the imaging devices 11 is provided.
  • a plurality of display devices 21 are provided, and the number of reception devices 20 corresponding to the number of display devices 21 is provided.
  • the imaging device 11 is configured as an electronic device having a function of capturing moving images.
  • the imaging device 11 is configured as a medical imaging device (medical equipment) such as an endoscope or an operating field camera.
  • the imaging device 11 is configured as a broadcast video camera or the like.
  • the display device 21 is configured as a monitor that displays images (moving images) captured by the imaging device 11 in real time.
  • the imaging device 11 is connected to the network NW via the transmission device 10, respectively. Also, the display device 21 is connected to the network NW via the receiving device 20 .
  • the imaging device 11 and the display device 21 have interfaces such as SDI (Serial Digital Interface), HDMI (High-Definition Multimedia Interface) (registered trademark), and Display Port.
  • the transmitting device 10 and the imaging device 11 are configured separately in the example of FIG. 1, they may be configured integrally.
  • the receiving device 20 and the display device 21 are also configured separately, they may be configured integrally.
  • the servers 30 are configured as processing devices that perform image processing on image signals, and are provided in plurality on the cloud CLD.
  • the server 30 acquires the image signal transmitted from the transmission device 10 via the network NW, and performs signal processing using software.
  • the server 30 when the signal processing system 1 is configured as a medical network system, the server 30 superimposes a guide on an endoscopic image or overlays a fluorescence image on a 4K full-color image.
  • the server 30 performs PinP (Picture in Picture) processing on a plurality of images, superimposes logos and telops, and adds effects. do.
  • PinP Picture in Picture
  • the server 30 transmits the image signal that has undergone image processing to the receiving device 20 via the network NW. Routing between the transmitting device 10 and the receiving device 20 is performed based on the control of the integration device 50. FIG.
  • the integration device 50 sets the signal processing details of each server 30 on the cloud CLD based on the user's operation on the operation terminal 40 .
  • Each server 30 performs image processing on the image signal sent from the transmitting device 10 based on the signal processing content set by the integrating device 50 .
  • the imaging device 11 transmitting device 10
  • the display device 21 receiving device 20
  • the server 30 are time-synchronized in order to realize transmission of image signals with low latency.
  • edge-to-cloud clock synchronization using PTP Precision Time Protocol
  • GMC Garndmaster Clock
  • FIG. 2 is a block diagram showing a hardware configuration example of a computer that constitutes each device of the signal processing system 1 described above.
  • the CPU 101 loads, for example, a program stored in the storage unit 108 into the RAM 103 via the input/output interface 105 and the bus 104 and executes it, thereby performing various processes. executed.
  • a GPU Graphics Processing Unit
  • FPGA Field Programmable Gate Array
  • the reception unit 151 corresponds to the communication unit 109 in FIG. 2, and receives various information from the transmission device 10, the reception device 20, the server 30, and the operation terminal 40 via the network NW.
  • the information acquisition unit 152 acquires various types of information received by the reception unit 151 and supplies them to the delay amount setting unit 153 and the synchronization method setting unit 155 .
  • the information acquired by the information acquisition unit 152 includes, for example, signal processing details set for each server 30 on the cloud CLD, operation information of a user who operates the operation terminal 40, and the like.
  • each server 30 starts signal processing as soon as it receives a frame (image signal) from the previous stage, and sends the processed frame to the subsequent stage. Therefore, it is assumed that the processing time Tp includes the transmission time between the servers 30 .
  • the cloud CLD (the plurality of servers 30) receives the frame-by-frame image signal from the transmission device 10 in step S13, in step S14, the frame-by-frame image signal is subjected to signal processing by software.
  • the cloud CLD transmits the signal-processed image signal to the receiving device 20 in step S15.
  • step S ⁇ b>17 the receiving device 20 outputs the image signal received from the cloud CLD to the display device 21 at the timing based on the signal delay amount from the integrating device 50 .
  • the image is divided horizontally and allocated to a plurality of processors, each processor time-divides the allocated area vertically, and for each vertically divided area, the largest area is allocated to the head area.
  • a technique for displaying images at high speed by setting overhead and sequentially processing images is known.
  • a predetermined frame of image A is divided into four in the horizontal direction. Images corresponding to the four areas A1, A2, A3, and A4 into which the image A is divided are called strip images.
  • Image A is added with an imaging time (time information) and a frame number as metadata.
  • each of the strip images A1, A2, A3, and A4 is added with an imaging time, a frame number, and a strip number (divided image number) as metadata.
  • the strip number 001 is added to the strip image A1
  • the strip number 002 is added to the strip image A2.
  • strip number 003 is added to strip image A3, and strip number 004 is added to strip image A4.
  • the frame at time t of image A input to server #2 (hereinafter referred to as frame A(t), etc.) is shown for each of strip images A1, A2, A3, and A4.
  • frames at times t-2, t-1, and t of the reduced image (image B) input to server #2 (hereinafter referred to as frames B(t-2) and B(t-1)) are shown.
  • B(t), etc.) are shown for each of the strip images B1, B2, B3, and B4.
  • frame A(t) of image A input to server #2 at time t is shown for each of strip images A1, A2, A3, and A4.
  • frames B(t ⁇ 1), B(t), and B(t+1) at times t ⁇ 1, t, and t+1 of the reduced image (image B) input to server #2 are shown as strips. Images B1, B2, B3, and B4 are shown for each.
  • image B is subjected to reduction processing in server #1, in the example of FIG. 9, the reduced image is input to server #2 with a delay of two strip images from image A.
  • the signal processing system 1 When the signal processing system 1 is configured as a network system for a broadcasting station, by selecting time-priority synchronization when outputting video for viewing by a viewer, broadcasting that does not give the viewer a sense of discomfort is realized. be able to. On the other hand, when outputting video for checking within a broadcasting station, selecting latency-prioritized synchronization can realize quicker checking.
  • the integrating device adds the signal delay amount to time information included in the image signal received by the receiving device, The signal processing system according to (2), wherein the receiving device outputs the received image signal at the timing determined by the time information and the signal delay amount.
  • the time information includes an imaging time by the imaging device.
  • the integrating device sets the signal delay amount based on the transmission time from the transmitting device to the processing device, the processing time in the processing device, and the transmission time from the processing device to the receiving device (1 ) to (4).
  • processing device executes either the latency-priority synchronization or the time-priority synchronization using time information, a frame number, and a divided image number included in the image signal.
  • signal processing system (13) a transmission device for transmitting an image signal from the imaging device; a processing device provided on the cloud that performs signal processing on the transmitted image signal; a receiving device that receives the image signal that has been subjected to the signal processing; an integration device connected to a network together with the transmission device, the processing device, and the reception device that are time-synchronized;
  • a signal processing method comprising: setting a signal delay amount from the transmitting device to the receiving device according to signal processing content of the processing device, and transmitting the signal to the receiving device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Computer Security & Cryptography (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本開示は、リアルタイムサービスにおいて表示の最適化を実現することができるようにする信号処理システムおよび信号処理方法に関する。 送信装置は、撮像装置からの画像信号を送出し、クラウド上に設けられた処理装置は、送出された画像信号に対して信号処理を施し、受信装置は、信号処理が施された画像信号を受信する。統合装置は、時刻同期されている送信装置、処理装置、および受信装置とともにネットワークに接続され、処理装置の信号処理内容に応じて、送信装置から受信装置までの信号遅延量を設定し、受信装置に送信する。本開示は、医療向けネットワークシステムや放送局向けネットワークシステムに適用することができる。

Description

信号処理システムおよび信号処理方法
 本開示は、信号処理システムおよび信号処理方法に関し、特に、リアルタイムサービスにおいて表示の最適化を実現する信号処理システムおよび信号処理方法に関する。
 通信技術の発展や汎用プロセッサの性能向上に伴い、医療用サービスや放送用サービスなどリアルタイム性が要求されるリアルタイムサービスにおいて、クラウド上の複数のサーバが画像信号に対して各種のソフトウェア信号処理を実行することが提案されている。
 リアルタイムサービスにおいては、オンプレミス環境に近い、非常に小さいレイテンシが要求されるため、様々な低レイテンシ技術や、レイテンシをユーザに感じさせない技術の確立が求められる。
 特許文献1には、遠隔地に配置されたカメラによって提供される画像を見るためのモニタを有する制御装置が、カメラに対するコマンドを実行する前に、表示用のエミュレート画像を提示することで、遅延を感じさせない遠隔制御の方法が開示されている。
特開2019-186934号公報
 クラウド上の各サーバにおける処理時間は、サーバ毎、アプリ―ケーション毎に異なる場合がある。すなわち、ソフトウェア信号処理毎に遅延時間が異なる場合がある。そのため、例えば、複数の処理結果を各処理が終了した順に1枚の画像に統合して表示する場合、画像領域毎に取得時間が異なることから、不適切な表示となる可能性がある。
 したがって、リアルタイムに複数の異なる信号処理を実行する際には、それぞれの処理時間に応じて表示の最適化を実現できるシステムが求められる。
 本開示は、このような状況に鑑みてなされたものであり、リアルタイムサービスにおいて表示の最適化を実現するものである。
 本開示の信号処理システムは、撮像装置からの画像信号を送出する送信装置と、送出された前記画像信号に対して信号処理を施す、クラウド上に設けられた処理装置と、前記信号処理が施された前記画像信号を受信する受信装置と、時刻同期されている前記送信装置、前記処理装置、および前記受信装置とともにネットワークに接続され、前記処理装置の信号処理内容に応じて、前記送信装置から前記受信装置までの信号遅延量を設定し、前記受信装置に送信する統合装置とを備える信号処理システムである。
 本開示の信号処理方法は、撮像装置からの画像信号を送出する送信装置と、送出された前記画像信号に対して信号処理を施す、クラウド上に設けられた処理装置と、前記信号処理が施された前記画像信号を受信する受信装置と、時刻同期されている前記送信装置、前記処理装置、および前記受信装置とともにネットワークに接続された統合装置とを備える信号処理システムの前記統合装置が、前記処理装置の信号処理内容に応じて、前記送信装置から前記受信装置までの信号遅延量を設定し、前記受信装置に送信する信号処理方法である。
 本開示においては、処理装置の信号処理内容に応じて、送信装置から受信装置までの信号遅延量が設定され、受信装置に送信される。
本開示に係る技術を適用し得る信号処理システムの構成例を示すブロック図である。 コンピュータのハードウェア構成例を示すブロック図である。 統合装置の機能構成例を示す図である。 信号遅延量の設定について説明する図である。 画像信号の取得から出力までの流れについて説明する図である。 分割画像の例を示す図である。 複数の画像信号に対して信号処理を施す例を示す図である。 レイテンシ優先同期について説明する図である。 時刻優先同期について説明する図である。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.背景技術とその課題
 2.信号処理システムの構成
 3.画像信号の取得から出力までの流れ
 4.クラウド上での信号処理と同期について
<1.背景技術とその課題>
 通信技術の発展や汎用プロセッサの性能向上に伴い、医療用サービスや放送用サービスなどのリアルタイム性が要求されるリアルタイムサービスにおいて、クラウド上の複数のサーバが画像信号に対して各種のソフトウェア信号処理を実行することが提案されている。
 リアルタイムサービスにおいては、オンプレミス環境に近い、非常に小さいレイテンシが要求されるため、様々な低レイテンシ技術や、レイテンシをユーザに感じさせない技術の確立が求められる。
 クラウド上の各サーバにおける処理時間は、サーバ毎、アプリ―ケーション毎に異なる場合がある。すなわち、ソフトウェア信号処理毎に遅延時間が異なる場合がある。例えば、医療用サービスにおいて、内視鏡画像に対するAI(Artificial Intelligence)診断アプリケーション処理と、内視鏡画像に対するアップコンバート処理とでは、その処理時間が大きく異なる。そのため、例えば、これらの処理結果を各処理が終了した順に1枚の画像に統合して表示する場合、画像領域毎に取得時間が異なることから、フレームドロップによって不適切な表示となる可能性がある。
 したがって、リアルタイムに複数の異なる信号処理を実行する際には、それぞれの処理時間に応じて表示の最適化を実現できるシステムが求められる。
 以下においては、リアルタイムサービスにおいて表示の最適化を実現する信号処理システムの構成について説明する。
<2.信号処理システムの構成>
(信号処理システム全体の構成例)
 図1は、本開示に係る技術を適用し得る信号処理システムの構成例を示すブロック図である。
 図1の信号処理システム1は、医療用サービスの提供を実現する医療向けネットワークシステムとして構成されてもよいし、放送用サービスの提供を実現する放送局向けネットワークシステムとして構成されてもよい。
 信号処理システム1は、送信装置10、撮像装置11、受信装置20、表示装置21、サーバ30、操作端末40、および統合装置50から構成される。
 信号処理システム1においては、撮像装置11が複数設けられ、送信装置10も撮像装置11に対応する数だけ設けられる。同様に、表示装置21が複数設けられ、受信装置20も表示装置21に対応する数だけ設けられる。
 信号処理システム1において、送信装置10、受信装置20、サーバ30、操作端末40、および統合装置50は、いわゆるIP(Internet Protocol)ネットワークを構成するネットワークNWに接続されている。
 撮像装置11は、動画像を撮像する機能を有する電子機器として構成される。信号処理システム1が医療向けネットワークシステムとして構成される場合、撮像装置11は、内視鏡や術場カメラなどの医療撮像装置(医療機器)として構成される。信号処理システム1が放送局向けネットワークシステムとして構成される場合、撮像装置11は、放送用ビデオカメラなどとして構成される。
 表示装置21は、撮像装置11により撮像された画像(動画像)をリアルタイムに表示するモニタとして構成される。
 撮像装置11は、それぞれ送信装置10を介して、ネットワークNWに接続される。また、表示装置21は、それぞれ受信装置20を介して、ネットワークNWに接続される。撮像装置11や表示装置21は、SDI(Serial Digital Interface)やHDMI(High-Definition Multimedia Interface)(登録商標),Display Portなどのインタフェースを有している。
 送信装置10と受信装置20は、いわゆるIPコンバータとして構成される。送信装置10は、撮像装置11からの画像(画像信号)をIP信号に変換し、ネットワークNWに送出する。また、受信装置20は、ネットワークNWから受信したIP信号を画像信号に変換し、表示装置21に出力する。
 図1の例では、送信装置10と撮像装置11とが別個に構成されているが、これらが一体に構成されてもよい。また、受信装置20と表示装置21もまた別個に構成されているが、これらが一体に構成されてもよい。
 サーバ30は、画像信号に対して画像処理を施す処理装置として構成され、クラウドCLD上に複数設けられる。サーバ30は、送信装置10から送出された画像信号を、ネットワークNWを介して取得し、ソフトウェアによる信号処理を施す。
 例えば、信号処理システム1が医療向けネットワークシステムとして構成される場合、サーバ30は、内視鏡画像にガイドを重畳合成したり、4Kフルカラー画像に蛍光画像をオーバーレイしたりする。信号処理システム1が放送局向けネットワークシステムとして構成される場合、サーバ30は、複数の画像に対してPinP(Picture in Picture)処理を施したり、ロゴやテロップの重畳、エフェクトの追加を実行したりする。
 サーバ30は、画像処理を施した画像信号を、ネットワークNWを介して受信装置20に送信する。送信装置10-受信装置20間のルーティングは、統合装置50の制御に基づいて行われる。
 クラウドCLD上に設けられる複数のサーバ30は、複数の送信装置10からの画像信号を受信して、サーバ30毎に各種の画像処理を施し、処理後の画像信号を複数の受信装置20に送信することができる。
 操作端末40は、ユーザに操作されるPC(Personal Computer)やタブレット端末、スマートフォンなどとして構成される。例えば、操作端末40は、ユーザの操作に基づいて、送信装置10から送出された画像信号の出力先となる受信装置20の選択を受け付ける。
 統合装置50は、ネットワークNWに接続された機器に対する画像信号の入出力を制御する。具体的には、統合装置50は、ネットワークNW上に配置された送信装置10-受信装置20間における画像信号の高速な転送を制御する。すなわち、統合装置50は、操作端末40に対するユーザの操作に基づいて、図示せぬIPスイッチを制御することで、送信装置10から送出された画像信号の出力先と受信装置20を設定する(ルーティングを行う)。
 さらに、統合装置50は、操作端末40に対するユーザの操作に基づいて、クラウドCLD上の各サーバ30の信号処理内容を設定する。サーバ30それぞれは、統合装置50により設定された信号処理内容に基づいて、送信装置10から送出された画像信号に対して画像処理を施す。
 なお、信号処理システム1においては、低レイテンシでの画像信号の伝送を実現するため、撮像装置11(送信装置10)、表示装置21(受信装置20)、およびサーバ30は、時刻同期されている。ここでは、例えば、エッジ-クラウド間でのPTP(Precision Time Protocol)を用いたクロック同期や、それぞれGMC(Grandmaster Clock)を用いた時刻同期が実行される。
(コンピュータのハードウェア構成例)
 図2は、上述した信号処理システム1の各装置を構成するコンピュータのハードウェア構成例を示すブロック図である。
 信号処理システム1を構成するサーバ30、操作端末40や統合装置50は、図2に示される構成を有するコンピュータ100により実現される。
 CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。
 バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボードやマウス、ボタン、タッチパネルなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続される。また、入出力インタフェース105には、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、リムーバブルメディア111を駆動するドライブ110が接続される。
 以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを入出力インタフェース105およびバス104を介してRAM103にロードして実行することにより、各種の処理が実行される。
 CPU101が実行するプログラムは、例えばリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部108にインストールされる。
 コンピュータ100がサーバ30として構成される場合、図2の構成に加えて、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)がさらに設けられてもよい。これにより、クラウドCLD上の各サーバ30が、リアルタイムな信号処理を並列に低レイテンシで実行することが可能となる。
(統合装置の機能構成例)
 次に、図3を参照して、統合装置50の機能構成例について説明する。
 図3の統合装置50は、受信部151、情報取得部152、遅延量設定部153、送信部154、同期方法設定部155、および遅延量テーブルTBLを備えている。情報取得部152、遅延量設定部153、および同期方法設定部155は、図2のCPU101が所定のプログラムを実行することにより実現される機能ブロックである。
 受信部151は、図2の通信部109に相当し、ネットワークNWを介して、送信装置10、受信装置20、サーバ30、および操作端末40からの各種情報を受信する。
 情報取得部152は、受信部151により受信された各種情報を取得し、遅延量設定部153や同期方法設定部155に供給する。情報取得部152により取得される情報には、例えば、クラウドCLD上の各サーバ30について設定されている信号処理内容や、操作端末40を操作するユーザの操作情報などが含まれる。
 遅延量設定部153は、情報取得部152からの情報に基づいて、送信装置10により画像信号の送出が開始されてから受信装置20により受信され、表示装置21により画像の表示が開始されるまでの時刻差(以下、信号遅延量という)を設定する。具体的には、遅延量設定部153は、各サーバ30の信号処理内容に応じて、送信装置10から受信装置20までの信号遅延量を設定する。
 遅延量テーブルTBLは、図2の記憶部108に相当し、クラウドCLD上のサーバ30毎に、各サーバ30による信号処理の処理時間(最悪実行時間)などを保持している。
遅延量設定部153は、遅延量テーブルTBLに保持されている、各サーバ30による処理時間に基づいて、送信装置10から受信装置20までの信号遅延量を設定することもできる。
 遅延量設定部153により設定された信号遅延量は、送信部154に供給される。
 送信部154は、受信部151と同様、図2の通信部109に相当し、遅延量設定部153からの信号遅延量を、受信装置20に送信する。
 同期方法設定部155は、情報取得部152からの情報に基づいて、クラウドCLD上のサーバ30において実行される信号処理の同期方法を設定する。具体的には、操作端末40に対するユーザの操作に基づいて、信号処理の同期方法が設定される。設定された同期方法を表す情報は、送信部154に供給され、該当する信号処理を実行するサーバ30に送信される。
(信号遅延量の設定)
 ここで、図4を参照して、遅延量設定部153による信号遅延量の設定について説明する。
 図4には、送信装置10から送出された画像信号がサーバ30に伝送されるまでの伝送時間Ts、クラウドCLD上での各サーバ30における処理時間Tp、サーバ30から送出された画像信号が受信装置20に伝送されるまでの伝送時間Trが示されている。
 クラウドCLD上では、各サーバ30が、前段からのフレーム(画像信号)を受信し次第、信号処理を開始し、処理結果のフレームを後段に送出する。したがって、処理時間Tpには、サーバ30間の伝送時間が含まれるものとする。
 遅延量設定部153(統合装置50)は、伝送時間Ts、処理時間Tp、および伝送時間Trに基づいて信号遅延量を設定し、受信装置20に送信する。具体的には、遅延量設定部153は、伝送時間Ts、処理時間Tp、および伝送時間Trそれぞれの最大時間を合計した時間に基づいて、信号遅延量を設定する。遅延量設定部153は、設定した信号遅延量を、受信装置20に受信される画像信号に含まれる時刻情報(撮像装置11による撮像時刻)に付加して、受信装置20に送信する。
 受信装置20は、画像信号に含まれる時刻情報(撮像時刻)とその時刻情報に付加された信号遅延量により決定されるタイミングで、受信した画像信号を出力する。
 伝送時間Ts,Trそれぞれは、既存の画像伝送技術に基づいて、動的に算出されればよい。また、クラウドCLD上での処理時間Tpは、動的な手法により求められてもよいし、静的な手法により求められてもよい。
 動的な手法は、統合装置50が、送信装置10、受信装置20、およびサーバ30を制御することで、画像信号の伝送および信号処理を実行させ、それらに要した時間を実測、集計する手法である。
 静的な手法は、統合装置50が、遅延量テーブルTBL(図3)を参照し、各サーバ30において実行される信号処理に応じて、処理時間を算出する手法である。
<3.画像信号の取得から出力までの流れ>
 図5は、信号処理システム1における、画像信号の取得から出力までの流れについて説明する図である。ここでは、1台の撮像装置11により撮像されている画像が、1台の表示装置21にリアルタイムに表示される例について説明する。
 送信装置10は、ステップS11において、撮像装置11により撮像されている画像(画像信号)をフレーム単位で取得すると、ステップS12において、取得したフレーム単位の画像信号をクラウドCLD(サーバ30)に送出する。
 クラウドCLD(複数のサーバ30)は、ステップS13において、送信装置10からのフレーム単位の画像信号を受信すると、ステップS14において、フレーム単位の画像信号に対して、ソフトウェアによる信号処理を実行する。クラウドCLDは、ステップS15において、信号処理が施された画像信号を、受信装置20に送信する。
 受信装置20は、ステップS16において、クラウドCLDからの画像信号を受信すると、ステップS17において、受信した画像信号を表示装置21に出力する。
 一方で、統合装置50は、ステップS21において信号遅延量を設定し、ステップS22において、設定した信号遅延量を、受信装置20に送信する。受信装置20は、ステップS23において、統合装置50からの信号遅延量を受信する。
 したがって、ステップS17においては、受信装置20は、統合装置50からの信号遅延量に基づいたタイミングで、クラウドCLDから受信した画像信号を表示装置21に出力する。
 以上の処理によれば、送信装置10、受信装置20、およびサーバ30(クラウドCLD)が時刻同期されている信号処理システム1において、表示装置21は、統合装置50により設定された信号遅延量に基づいたタイミングで、画像を表示することができる。
 これにより、クラウド上の各サーバにおける処理時間がサーバ毎、アプリ―ケーション毎に異なる場合に、それぞれの処理結果を1枚の画像に統合して表示するときであっても、フレームドロップを起こすことなく、サーバ毎、アプリ―ケーション毎の処理時間に応じて、表示の最適化を実現することが可能となる。
 なお、以上においては、統合装置50により設定された信号遅延量は、受信装置20に送信されるものとしたが、クラウドCLD上の各サーバ30に送信されてもよい。これにより、各サーバ30は、統合装置50により設定された信号遅延量に基づいたタイミングで、信号処理を実行することができ、ひいては、サーバ毎、アプリ―ケーション毎の処理時間に応じた表示の最適化の実現に寄与することが可能となる。
<4.クラウド上での信号処理と同期について>
 画像を水平方向に分割して、複数のプロセッサに割り付けるとともに、各プロセッサが、割り付けられた領域を垂直方向に時分割処理し、かつ、垂直方向に分割された各領域について、先頭領域に最も大きなオーバヘッドを設定して順次処理することで、画像を高速に表示させる技術が知られている。
 信号処理システム1においては、クラウドCLD上での画像信号の伝送および信号処理について低レイテンシ化を図るため、各サーバ30が、画像信号の各フレームを複数に分割した分割画像単位で伝送および信号処理を実行するようにする。
 具体的には、図6に示されるように、画像Aの所定フレームは、水平方向は4分割される。画像Aが分割された4つの領域A1,A2,A3,A4に対応する画像を、それぞれ短冊画像という。画像Aには、メタデータとして、撮像時刻(時刻情報)とフレーム番号が付加されている。短冊画像A1,A2,A3,A4それぞれには、画像Aのメタデータに基づいて、メタデータとして、撮像時刻、フレーム番号、および短冊番号(分割画像番号)が付加される。図6の例では、短冊画像A1には、短冊番号001が付加され、短冊画像A2には、短冊番号002が付加されている。同様に、短冊画像A3には、短冊番号003が付加され、短冊画像A4には、短冊番号004が付加されている。
 クラウドCLD上では、各サーバ30が、短冊番号が付加された短冊画像を受信し次第、信号処理を開始し、処理結果の短冊画像を後段に送出する。
 このような構成において、複数のサーバ30間で、画像信号を伝送しながら信号処理を施す際に、あるサーバ30に入力される複数の画像信号について、短冊画像単位で時間差が生じることがある。この場合において、例えばPinP処理などの画像合成処理を実行する際、フレーム単位で同期をとる必要がある。
 そこで、サーバ30は、複数の画像信号に対して信号処理を施す場合、分割画像単位での信号処理の結果に基づいて、フレーム単位での同期を実行する。このとき、サーバ30は、分割画像に付加されたメタデータ(撮像時刻、フレーム番号、および分割画像番号)を用いて、フレーム単位での同期を実行する。
 サーバ30は、フレーム単位での同期方法として、第1の画像信号を遅延させずに、所定数フレーム前の第2の画像信号を同期させるレイテンシ優先同期と、第2の画像信号に合わせて、第1の画像信号を遅延させて同期させる時刻優先同期のいずれかを実行することができる。
 そして、クラウドCLD上の各サーバ30が、レイテンシ優先同期と時刻優先同期のいずれを実行するかは、統合装置50の同期方法設定部155により設定される。
 図7は、複数の画像信号に対して信号処理を施す例を示す図である。
 図7の例では、2つの画像A,Bが、PinP処理により1つの画像(PinP画像)として表示される。具体的には、サーバ#1が、4Kベースバンド信号として入力された2つの画像A,Bのうちの画像Bに対して縮小処理を施し、サーバ#2に出力する。サーバ#2は、4Kベースバンド信号として入力された画像Aと、縮小画像として入力された画像Bに対してPinP処理を実行することで、画像Aに縮小画像(画像B)が重畳されたPinP画像を出力する。
 図8を参照して、図7の構成におけるレイテンシ優先同期について説明する。
 図8上段には、サーバ#2に入力される画像Aの時刻tにおけるフレーム(以下、フレームA(t)などという)が、短冊画像A1,A2,A3,A4毎に示されている。図8中段には、サーバ#2に入力される縮小画像(画像B)の時刻t-2,t-1,tそれぞれにおけるフレーム(以下、フレームB(t-2),B(t-1),B(t)などという)が、短冊画像B1,B2,B3,B4毎に示されている。
 画像Bに対しては、サーバ#1において縮小処理が施されることから、図8の例では、縮小画像は、画像Aに対して2短冊画像遅延して、サーバ#2に入力される。
 ここで、サーバ#2が、画像Aと縮小画像に対してPinP処理を実行する際、画像A,Bそれぞれの短冊画像のメタデータに基づいて、フレームA(t)を遅延させず、2フレーム前のフレームB(t-2)と同期させることで、PinP処理が実行されるようにする。
 これにより、画像Aと縮小画像(画像B)との間で時刻は同期されないものの、PinP画像を最も速く出力することができる。
 図9を参照して、図7の構成における時刻優先同期について説明する。
 図9上段には、サーバ#2に入力される画像Aの時刻tにおけるフレームA(t)が、短冊画像A1,A2,A3,A4毎に示されている。図9中段には、サーバ#2に入力される縮小画像(画像B)の時刻t-1,t,t+1それぞれにおけるフレームB(t-1),B(t),B(t+1)が、短冊画像B1,B2,B3,B4毎に示されている。
 画像Bに対しては、サーバ#1において縮小処理が施されることから、図9の例では、縮小画像は、画像Aに対して2短冊画像遅延して、サーバ#2に入力される。
 ここで、サーバ#2が、画像Aと縮小画像に対してPinP処理を実行する際、画像A,Bそれぞれの短冊画像のメタデータに基づいて、フレームB(t)に合わせて、フレームA(t)を1.25フレーム分遅延させて同期させることで、PinP処理が実行されるようにする。
 これにより、画像Aと縮小画像(画像B)との間で時刻が同期されたPinP画像を出力することができる。
 信号処理システム1が、放送局向けネットワークシステムとして構成される場合、視聴者が視聴するための映像を出力するときには、時刻優先同期を選択することで、視聴者に違和感を与えない放送を実現することができる。一方、放送局内でのチェックのための映像を出力するときには、レイテンシ優先同期を選択することで、より迅速なチェックを実現することができる。
 また、信号処理システム1が、医療向けネットワークシステムとして構成される場合、医療機器としての撮像装置11の種類や、信号処理を実行する医療アプリケーションの種類に基づいて、レイテンシ優先同期と時刻優先同期のいずれかが設定されてもよい。例えば、ベースバンド信号として入力された画像上にガイドを重畳表示させる場合には、時刻優先同期が選択されるようにする。ベースバンド信号として入力された画像を低解像度化したプロキシ画像として表示させる場合には、レイテンシ優先同期が選択されるようにする。
 上述した信号処理システム1において、各サーバ30間での画像信号の伝送に、他サーバからのデータをCPUを介さずに直接GPUに転送するGPUDirect(登録商標)の1つであるGPUDirect RDMA(Remote Direct Memory Access)が用いられてもよい。これにより、画像信号の伝送に係るレイテンシをさらに削減することが可能となる。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本開示は以下のような構成をとることができる。
(1)
 撮像装置からの画像信号を送出する送信装置と、
 送出された前記画像信号に対して信号処理を施す、クラウド上に設けられた処理装置と、
 前記信号処理が施された前記画像信号を受信する受信装置と、
 時刻同期されている前記送信装置、前記処理装置、および前記受信装置とともにネットワークに接続され、前記処理装置の信号処理内容に応じて、前記送信装置から前記受信装置までの信号遅延量を設定し、前記受信装置に送信する統合装置と
 を備える信号処理システム。
(2)
 前記受信装置は、前記信号遅延量に基づいたタイミングで、受信した前記画像信号を出力する
 (1)に記載の信号処理システム。
(3)
 前記統合装置は、前記受信装置に受信される前記画像信号に含まれる時刻情報に前記信号遅延量を付加し、
 前記受信装置は、前記時刻情報と前記信号遅延量により決定される前記タイミングで、受信した前記画像信号を出力する
 (2)に記載の信号処理システム。
(4)
 前記時刻情報は、前記撮像装置による撮像時刻を含む
 (3)に記載の信号処理システム。
(5)
 前記統合装置は、前記送信装置から前記処理装置までの伝送時間、前記処理装置における処理時間、および、前記処理装置から前記受信装置までの伝送時間に基づいて、前記信号遅延量を設定する
 (1)乃至(4)のいずれかに記載の信号処理システム。
(6)
 前記統合装置は、前記クラウド上に設けられた前記処理装置による前記信号処理についての遅延量テーブルを用いて、前記処理時間を算出する
 (5)に記載の信号処理システム。
(7)
 前記処理装置は、前記クラウド上に複数設けられ、
 前記処理時間は、前記処理装置間の伝送時間を含む
 (6)に記載の信号処理システム。
(8)
 前記処理装置は、前記画像信号に対して、フレームを複数に分割した分割画像単位で前記信号処理を施す
 (1)乃至(7)のいずれかに記載の信号処理システム。
(9)
 前記処理装置は、複数の前記画像信号に対して前記信号処理を施す場合、前記分割画像単位での前記信号処理の結果に基づいて、前記フレーム単位での同期を実行する
 (8)に記載の信号処理システム。
(10)
 前記統合装置は、前記フレーム単位での同期方法として、第1の画像信号を遅延させずに、所定数フレーム前の第2の画像信号と同期させるレイテンシ優先同期と、前記第2の画像信号に合わせて、前記第1の画像信号を遅延させて同期させる時刻優先同期のいずれかを設定する
 (9)に記載の信号処理システム。
(11)
 前記撮像装置は、医療機器を含み、
 前記統合装置は、前記医療機器の種類に基づいて、前記レイテンシ優先同期および前記時刻優先同期のいずれかを設定する
 (10)に記載の信号処理システム。
(12)
 前記処理装置は、前記画像信号に含まれる時刻情報、フレーム番号、および分割画像番号を用いて、前記レイテンシ優先同期および前記時刻優先同期のいずれかを実行する
 (10)または(11)に記載の信号処理システム。
(13)
 撮像装置からの画像信号を送出する送信装置と、
 送出された前記画像信号に対して信号処理を施す、クラウド上に設けられた処理装置と、
 前記信号処理が施された前記画像信号を受信する受信装置と、
 時刻同期されている前記送信装置、前記処理装置、および前記受信装置とともにネットワークに接続された統合装置と
 を備える信号処理システムの前記統合装置が、
 前記処理装置の信号処理内容に応じて、前記送信装置から前記受信装置までの信号遅延量を設定し、前記受信装置に送信する
 信号処理方法。
 1 信号処理システム, 10 送信装置, 11 撮像装置, 20 受信装置, 21 表示装置, 30 サーバ, 40 操作端末, 50 統合端末, 151 受信部, 152 情報取得部, 153 遅延量設定部, 154 送信部, 155 同期方法設定部, NW ネットワーク, CLD クラウド, TBL 遅延量テーブル

Claims (13)

  1.  撮像装置からの画像信号を送出する送信装置と、
     送出された前記画像信号に対して信号処理を施す、クラウド上に設けられた処理装置と、
     前記信号処理が施された前記画像信号を受信する受信装置と、
     時刻同期されている前記送信装置、前記処理装置、および前記受信装置とともにネットワークに接続され、前記処理装置の信号処理内容に応じて、前記送信装置から前記受信装置までの信号遅延量を設定し、前記受信装置に送信する統合装置と
     を備える信号処理システム。
  2.  前記受信装置は、前記信号遅延量に基づいたタイミングで、受信した前記画像信号を出力する
     請求項1に記載の信号処理システム。
  3.  前記統合装置は、前記受信装置に受信される前記画像信号に含まれる時刻情報に前記信号遅延量を付加し、
     前記受信装置は、前記時刻情報と前記信号遅延量により決定される前記タイミングで、受信した前記画像信号を出力する
     請求項2に記載の信号処理システム。
  4.  前記時刻情報は、前記撮像装置による撮像時刻を含む
     請求項3に記載の信号処理システム。
  5.  前記統合装置は、前記送信装置から前記処理装置までの伝送時間、前記処理装置における処理時間、および、前記処理装置から前記受信装置までの伝送時間に基づいて、前記信号遅延量を設定する
     請求項1に記載の信号処理システム。
  6.  前記統合装置は、前記クラウド上に設けられた前記処理装置による前記信号処理についての遅延量テーブルを用いて、前記処理時間を算出する
     請求項5に記載の信号処理システム。
  7.  前記処理装置は、前記クラウド上に複数設けられ、
     前記処理時間は、前記処理装置間の伝送時間を含む
     請求項6に記載の信号処理システム。
  8.  前記処理装置は、前記画像信号に対して、フレームを複数に分割した分割画像単位で前記信号処理を施す
     請求項1に記載の信号処理システム。
  9.  前記処理装置は、複数の前記画像信号に対して前記信号処理を施す場合、前記分割画像単位での前記信号処理の結果に基づいて、前記フレーム単位での同期を実行する
     請求項8に記載の信号処理システム。
  10.  前記統合装置は、前記フレーム単位での同期方法として、第1の画像信号を遅延させずに、所定数フレーム前の第2の画像信号と同期させるレイテンシ優先同期と、前記第2の画像信号に合わせて、前記第1の画像信号を遅延させて同期させる時刻優先同期のいずれかを設定する
     請求項9に記載の信号処理システム。
  11.  前記撮像装置は、医療機器を含み、
     前記統合装置は、前記医療機器の種類に基づいて、前記レイテンシ優先同期および前記時刻優先同期のいずれかを設定する
     請求項10に記載の信号処理システム。
  12.  前記処理装置は、前記画像信号に含まれる時刻情報、フレーム番号、および分割画像番号を用いて、前記レイテンシ優先同期および前記時刻優先同期のいずれかを実行する
     請求項10に記載の信号処理システム。
  13.  撮像装置からの画像信号を送出する送信装置と、
     送出された前記画像信号に対して信号処理を施す、クラウド上に設けられた処理装置と、
     前記信号処理が施された前記画像信号を受信する受信装置と、
     時刻同期されている前記送信装置、前記処理装置、および前記受信装置とともにネットワークに接続された統合装置と
     を備える信号処理システムの前記統合装置が、
     前記処理装置の信号処理内容に応じて、前記送信装置から前記受信装置までの信号遅延量を設定し、前記受信装置に送信する
     信号処理方法。
PCT/JP2022/004996 2021-06-03 2022-02-09 信号処理システムおよび信号処理方法 WO2022254798A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021093711 2021-06-03
JP2021-093711 2021-06-03

Publications (1)

Publication Number Publication Date
WO2022254798A1 true WO2022254798A1 (ja) 2022-12-08

Family

ID=84324132

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004996 WO2022254798A1 (ja) 2021-06-03 2022-02-09 信号処理システムおよび信号処理方法

Country Status (1)

Country Link
WO (1) WO2022254798A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223359A (ja) * 2010-04-09 2011-11-04 Sony Corp 遅延制御装置、制御方法、及び通信システム
JP2013120204A (ja) * 2011-12-06 2013-06-17 Canon Inc 映像処理装置およびその制御方法
JP2018201159A (ja) * 2017-05-29 2018-12-20 日本電信電話株式会社 映像処理方法、映像処理システム及び映像送信装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223359A (ja) * 2010-04-09 2011-11-04 Sony Corp 遅延制御装置、制御方法、及び通信システム
JP2013120204A (ja) * 2011-12-06 2013-06-17 Canon Inc 映像処理装置およびその制御方法
JP2018201159A (ja) * 2017-05-29 2018-12-20 日本電信電話株式会社 映像処理方法、映像処理システム及び映像送信装置

Similar Documents

Publication Publication Date Title
US10122963B2 (en) Bidirectional audio/video: system and method for opportunistic scheduling and transmission
CN111479154B (zh) 音画同步的实现设备、方法及计算机可读存储介质
JP2005250445A (ja) マルチ画面映像再生システム
JP6412263B2 (ja) 中継映像とライブ表示映像の分離方法及び装置
JP7171929B2 (ja) オーディオストリーム及びビデオストリーム同期切替方法及び装置
TW200939763A (en) Image processing system and method for processing divisional TV pictures
CN112788276A (zh) 视频流显示方法、发送方法、装置、终端、服务器及介质
US20130166769A1 (en) Receiving device, screen frame transmission system and method
US20180376181A1 (en) Networked video communication applicable to gigabit ethernet
EP4050889A1 (en) Conference device with multi-videostream capability
Tang et al. Audio and video mixing method to enhance WebRTC
WO2022254798A1 (ja) 信号処理システムおよび信号処理方法
JP2017147594A (ja) オーディオ機器
KR20180085953A (ko) 멀티 채널 초고해상도 영상 데이터의 동시 획득 시 채널 간 동기를 위한 하드웨어 장치
KR101877034B1 (ko) 멀티비전 가상화 시스템 및 가상화 서비스 제공 방법
JP2012222399A (ja) 映像再生システム、映像再生方法、映像再生装置及びプログラム
JP2001022335A (ja) 映像表示制御方法、映像表示処理システム、映像表示処理装置
US20170127014A1 (en) Upgraded image streaming to legacy and upgraded displays
JP2010278983A (ja) 映像伝送装置及び方法
De Almeida et al. Integration of Fogo Player and SAGE (Scalable Adaptive Graphics Environment) for 8K UHD Video Exhibition
WO2020179618A1 (ja) 映像表示システム、映像変換装置及び映像表示方法
CN115174978B (zh) 一种3d数字人的音画同步方法及电子设备
KR101673184B1 (ko) Sdi 포맷의 영상신호 분리처리를 통한 ip 스위칭/라우팅 장치 및 그 방법
TWM568008U (zh) 影像訊號轉換裝置
WO2023017577A1 (ja) 映像信号を合成する装置、方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22815557

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18560719

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22815557

Country of ref document: EP

Kind code of ref document: A1