JP2012191284A - Image transmitter, image transmission method, image receiver, and image reception method - Google Patents

Image transmitter, image transmission method, image receiver, and image reception method Download PDF

Info

Publication number
JP2012191284A
JP2012191284A JP2011050973A JP2011050973A JP2012191284A JP 2012191284 A JP2012191284 A JP 2012191284A JP 2011050973 A JP2011050973 A JP 2011050973A JP 2011050973 A JP2011050973 A JP 2011050973A JP 2012191284 A JP2012191284 A JP 2012191284A
Authority
JP
Japan
Prior art keywords
video
network
processing
delay time
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011050973A
Other languages
Japanese (ja)
Inventor
Manabu Sasamoto
学 佐々本
Hironori Komi
弘典 小味
Mitsuhiro Okada
岡田  光弘
Hiroki Mizozoe
博樹 溝添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2011050973A priority Critical patent/JP2012191284A/en
Priority to PCT/JP2012/000331 priority patent/WO2012120763A1/en
Priority to US13/884,808 priority patent/US20130287122A1/en
Priority to CN201280003633.7A priority patent/CN103210656B/en
Priority to JP2013503342A priority patent/JP5697743B2/en
Publication of JP2012191284A publication Critical patent/JP2012191284A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem of a conventional technique in which processing on an image receiving side is complicated in order to simultaneously display images received from plural image transmitters.SOLUTION: The image transmitter is provided with: compression means for digital compression coding of an image signal captured with a fixed period with a reference signal; network processing means for transmitting via a network the digitally compression-coded image signal to the image receiver connected via the network; and control means which controls the compression means and the network processing means. In response to a request from an image receiver, the control means changes a processing period from digital compression coding of the image signal to transmission of the image signal to the network.

Description

映像を伝送する装置に関する。 The present invention relates to an apparatus for transmitting video.

上記技術分野に関し、例えば特許文献1には、ネットワークを介して映像を伝送する際に、表示時間を調節する機能持った伝送装置が開示されている。 Regarding the above technical field, for example, Patent Document 1 discloses a transmission apparatus having a function of adjusting a display time when transmitting an image via a network.

特開平9−51515号公報JP-A-9-51515

しかし、特許文献1に記載の技術は、複数の映像送信装置から受信した映像を同時に表示するために映像受信側の処理が複雑となる課題があった。 However, the technique described in Patent Document 1 has a problem that the processing on the video receiving side is complicated because the video received from a plurality of video transmitting apparatuses is displayed simultaneously.

そこで本明細書では例えば、映像受信装置の制御に応じて、映像送信装置がその出力遅延時間を制御する構成とする。 Therefore, in this specification, for example, the video transmission device controls the output delay time in accordance with the control of the video reception device.

本発明によれば、出力遅延時間を考慮した映像伝送システムを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the video transmission system which considered output delay time can be provided.

映像送信装置、映像受信装置を含む映像伝送システムの一例を示す図である。It is a figure which shows an example of the video transmission system containing a video transmitter and a video receiver. 映像送信装置の内部ブロック構成の一例を示す図である。It is a figure which shows an example of an internal block structure of a video transmission apparatus. 映像送信装置のディジタル圧縮処理の一例を示す図である。It is a figure which shows an example of the digital compression process of a video transmitter. 映像送信装置のディジタル圧縮映像信号の一例を示す図である。It is a figure which shows an example of the digital compression video signal of a video transmitter. 映像送信装置のディジタル圧縮映像信号のパケットの一例を示す図である。It is a figure which shows an example of the packet of the digital compression video signal of a video transmitter. 映像送信装置のLANパケットの一例を示す図である。It is a figure which shows an example of the LAN packet of a video transmission apparatus. 映像受信装置の内部ブロック構成の一例を示す図である。It is a figure which shows an example of an internal block structure of a video receiver. 映像受信装置の内部ブロック構成の他の一例を示す図である。It is a figure which shows another example of the internal block structure of a video receiver. 映像受信装置の遅延時間確認処理のフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart of the delay time confirmation process of a video receiver. 映像送信装置の遅延時間回答処理のフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart of the delay time reply process of a video transmitter. 映像受信装置の遅延時間設定処理のフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart of the delay time setting process of a video receiver. 映像送信装置の遅延時間設定処理のフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart of the delay time setting process of a video transmission device. 映像送信装置の送信処理タイミングと映像受信装置の受信処理タイミングの一例を示す図である。It is a figure which shows an example of the transmission process timing of a video transmitter, and the reception process timing of a video receiver. 映像受信装置の送信処理タイミングと映像受信装置の受信処理タイミングの他の一例を示す図である。It is a figure which shows another example of the transmission process timing of a video receiver, and the reception process timing of a video receiver.

図1は、映像伝送装置であるカメラを含む映像伝送システムの形態の一例である。図1において、1はカメラであり、2から3は別のカメラである。4はLAN(LocalAreaNetwork)、5はコントローラであり、カメラ1から3は、LAN4を介してコントローラ5と接続されている。6はディスプレイである。ネットワークにおいては、使用するプロトコルとして、例えばデータリンクプロトコルであるIEEE802.3規格で規定されている方式を用いてもよいし、さらにネットワークプロトコルのIP(Internet Protocol)を使用し、その上位のトランスポートプロトコルにはTCP(Transmission Control Protocol)およびUDP(User Datagram Protocol)を用いてもよい。映像や音声の伝送には更に上位のアプリケーションプロトコル、例えばRTP(Real−time Transport Protocol)やHTTP(Hyper Text Transfer Protocol)等が使用される。その他、IEEE802.3規格で規定されているプロトコル方式を用いてもよい。コントローラ5は、各カメラから配信される映像や音声データを受信し、ディスプレイ6、スピーカ7に映像、音声をそれぞれ出力する。LAN4の構成としては、例えば、各カメラとコントローラ5が各々1対1で直接接続される形態や、図示しないスイッチングハブ装置を介して接続され、カメラは2台以下や4台以上の接続も可能である。   FIG. 1 is an example of a video transmission system including a camera which is a video transmission apparatus. In FIG. 1, 1 is a camera and 2 to 3 are other cameras. Reference numeral 4 denotes a LAN (Local Area Network), 5 denotes a controller, and the cameras 1 to 3 are connected to the controller 5 via the LAN 4. Reference numeral 6 denotes a display. In the network, as a protocol to be used, for example, a method stipulated in the IEEE 802.3 standard that is a data link protocol may be used, or a network protocol IP (Internet Protocol) is used, and a higher level transport is used. As the protocol, TCP (Transmission Control Protocol) and UDP (User Datagram Protocol) may be used. A higher-order application protocol such as RTP (Real-time Transport Protocol) or HTTP (Hyper Text Transfer Protocol) is used for transmission of video and audio. In addition, a protocol method defined in the IEEE 802.3 standard may be used. The controller 5 receives video and audio data distributed from each camera, and outputs video and audio to the display 6 and the speaker 7, respectively. As the configuration of the LAN 4, for example, each camera and the controller 5 are directly connected in a one-to-one relationship, or are connected via a switching hub device (not shown), and two or less cameras or four or more cameras can be connected. It is.

図2は、映像伝送装置であるカメラ1の内部ブロック構成の一例を示す図である。100はレンズ、101は撮像素子、102は映像圧縮回路、103は映像バッファ、104はシステムエンコーダ、105はパケットバッファ、106は基準信号発生回路、107はLANインタフェース回路、108は制御回路、109はメモリである。   FIG. 2 is a diagram illustrating an example of an internal block configuration of the camera 1 that is a video transmission apparatus. Reference numeral 100 denotes a lens, 101 an image sensor, 102 a video compression circuit, 103 a video buffer, 104 a system encoder, 105 a packet buffer, 106 a reference signal generation circuit, 107 a LAN interface circuit, 108 a control circuit, 109 It is memory.

レンズ100を介して撮像素子101で得られた映像信号は、映像圧縮回路102に入力され、色調やコントラストの補正が行われて、映像バッファ103に格納される。次に、映像圧縮回路102は、映像バッファ103に格納された映像データを読み出して、例えば、映像圧縮符号化方式としてISO/IEC13818−2(通称MPEG2Video)MP@ML(Main Profile@Main Level)規格に準拠した圧縮符号化データを生成する。その他、映像圧縮符号化方式としては、H.264/AVC規格方式やJPEG規格方式でもよい。また、異なる映像圧縮符号化方式のカメラが混在してもよいし、一つのカメラが映像圧縮符号化方式を選択して切り換えてもよい。生成した圧縮符号化映像データは、システムエンコーダ104に入力される。基準信号発生回路106は、例えば映像信号フレームの区切りを示すフレームパルスを撮像素子101や映像圧縮回路102の処理タイミングの基準となる基準信号として、撮像素子101、映像圧縮回路102に供給する。この基準信号に従って、撮像素子による映像の撮影、撮影した映像の圧縮、および圧縮した映像の送信(後述)が行われる。この基準信号は、各カメラの間で同期した信号であり、同期の方法としては、例えば一台のカメラの同期信号を他のカメラに入力する方法などがある。   A video signal obtained by the imaging device 101 via the lens 100 is input to the video compression circuit 102, color tone and contrast are corrected, and stored in the video buffer 103. Next, the video compression circuit 102 reads out the video data stored in the video buffer 103 and, for example, ISO / IEC13818-2 (commonly referred to as MPEG2 Video) MP @ ML (Main Profile @ Main Level) standard as a video compression encoding system. Compressed encoded data that conforms to the above is generated. Other video compression encoding methods include H.264. The H.264 / AVC standard method or the JPEG standard method may be used. Also, cameras of different video compression encoding methods may be mixed, or one camera may select and switch the video compression encoding method. The generated compressed encoded video data is input to the system encoder 104. The reference signal generation circuit 106 supplies, for example, a frame pulse indicating a break of the video signal frame to the image sensor 101 and the video compression circuit 102 as a reference signal serving as a reference for processing timing of the image sensor 101 and the video compression circuit 102. In accordance with this reference signal, the image pickup by the image sensor, the compression of the shot image, and the transmission of the compressed image (described later) are performed. This reference signal is a signal synchronized between the cameras. As a synchronization method, for example, there is a method of inputting a synchronization signal of one camera to another camera.

次に、システムエンコーダ104に入力された、圧縮符号化映像データは、以下示すように、パケット化される。   Next, the compression encoded video data input to the system encoder 104 is packetized as shown below.

図3は、ディジタル圧縮処理の例であり、ディジタル圧縮映像信号のフレーム単位で圧縮されたイントラフレームデータと、前後のフレームのデータよりの予測を用いて差分情報のみの圧縮を行ったインターフレームデータの関係である。201はイントラフレーム、202はインターフレームである。ディジタル圧縮映像信号は、所定数のフレーム、例えば15フレームを一つのシーケンスとし、その先頭はイントラフレームとし、残りのフレームはイントラフレームからの予測を用いて圧縮したインターフレームとしている。もちろん、先頭以外にもイントラフレームを配置するようにしてもよい。また、先頭のフレームのみをイントラフレームとし、後続のフレームは全てインターフレームとしてもよいし、全てのフレームをイントラフレームとしてもよい。   FIG. 3 shows an example of digital compression processing. Intra-frame data compressed in units of frames of a digital compressed video signal and inter-frame data in which only difference information is compressed using predictions from previous and subsequent frame data. It is a relationship. 201 is an intra frame and 202 is an inter frame. The digital compressed video signal has a predetermined number of frames, for example, 15 frames as one sequence, the head of which is an intra frame, and the remaining frames are inter frames compressed using prediction from the intra frame. Of course, an intra frame other than the head may be arranged. Also, only the first frame may be an intra frame, and all subsequent frames may be inter frames, or all the frames may be intra frames.

図4は、ディジタル圧縮映像信号の構成である。302はフレーム単位で付加されるピクチャヘッダ、301はシーケンス単位で付加されるシーケンスヘッダである。シーケンスヘッダ301は、同期信号及び伝送レート等の情報により構成される。ピクチャヘッダ302は、同期信号及びイントラフレームかインターフレームかの識別情報等により構成される。通常、各データの長さは情報量により変化する。このディジタル映像圧縮信号は、後述のトランスポートパケットに分割されてパケット列となる。   FIG. 4 shows the configuration of the digital compressed video signal. 302 is a picture header added in units of frames, and 301 is a sequence header added in units of sequences. The sequence header 301 includes information such as a synchronization signal and a transmission rate. The picture header 302 includes a synchronization signal and identification information such as an intra frame or an inter frame. Usually, the length of each data changes with the amount of information. This digital video compression signal is divided into transport packets to be described later to form a packet sequence.

図5はディジタル映像圧縮信号のトランスポートパケットの構成例である。40はそのトランスポートパケットであり、1パケットは固定長、例えば、188バイトで構成され、パケットヘッダ401と、パケット情報402により構成されている。図4で説明したディジタル圧縮映像信号は、パケット情報402の領域に分割され配置され、また、パケットヘッダ401はパケット情報の種類等の情報により構成される。   FIG. 5 is a configuration example of a transport packet of a digital video compression signal. Reference numeral 40 denotes the transport packet, and one packet is composed of a fixed length, for example, 188 bytes, and is composed of a packet header 401 and packet information 402. The digital compressed video signal described with reference to FIG. 4 is divided and arranged in an area of packet information 402, and the packet header 401 is configured by information such as the type of packet information.

システムエンコーダ104によりパケット化されたディジタル映像圧縮信号は、パケットバッファ105に一旦格納され、パケットバッファ105から読み出されたパケット列は、LANインタフェース回路107に入力される。   The digital video compressed signal packetized by the system encoder 104 is temporarily stored in the packet buffer 105, and the packet sequence read from the packet buffer 105 is input to the LAN interface circuit 107.

図2のLANインタフェース回路107では、入力されたパケット列を、例えばIEEE802.3規格に準拠したLANパケットにパケット化して出力する。   The LAN interface circuit 107 in FIG. 2 packetizes the input packet sequence into, for example, a LAN packet that conforms to the IEEE 802.3 standard and outputs the packet.

図6は、システムエンコーダ104によって生成されたパケット列のLANパケット化の例を示す図である。LANパケット60は、例えば1パケットが最大1518バイトの可変長で、LANパケットヘッダ601とLANパケット情報602で構成される。システムエンコーダ106によって生成されたトランスポートパケット40は、前述のネットワークプロトコルに従って、LANパケット情報602の領域にデータ誤り検出符号などと共に格納され、各カメラを識別するためのLAN4上におけるアドレス情報などが格納されるLANパケットヘッダ601が付加されてLANパケット60としてLANに出力される。   FIG. 6 is a diagram illustrating an example of LAN packetization of a packet sequence generated by the system encoder 104. The LAN packet 60 has, for example, one packet having a variable length of a maximum of 1518 bytes, and includes a LAN packet header 601 and LAN packet information 602. The transport packet 40 generated by the system encoder 106 is stored in the area of the LAN packet information 602 together with a data error detection code in accordance with the network protocol described above, and address information on the LAN 4 for identifying each camera is stored. A LAN packet header 601 is added and output as a LAN packet 60 to the LAN.

また、LANインタフェース回路107では、LAN4に接続されている機器との制御のための情報のやり取りが行われる。これは、制御回路108からの指示などの情報をLANパケット情報602に格納し、LAN4上に送信、あるいはLAN4から受信したLANパケット60のLANパケット情報602から情報を取り出し制御回路108に伝達することで行われる。   The LAN interface circuit 107 exchanges information for control with devices connected to the LAN 4. This is because information such as an instruction from the control circuit 108 is stored in the LAN packet information 602, information is transmitted from the LAN packet 60 of the LAN packet 60 transmitted or received from the LAN 4, and transmitted to the control circuit 108. Done in

図7は、コントローラ5の内部ブロック構成の一例を示す図である。5011〜5013はLANインタフェース回路、5021〜5023はシステムデコーダ、5031から5033は映像伸張回路、504は画像処理回路、505はOSD(On−Screen Display)回路、506は基準信号発生回路、507は制御回路、508はメモリである。   FIG. 7 is a diagram illustrating an example of an internal block configuration of the controller 5. 5011 to 5013 are LAN interface circuits, 5021 to 5023 are system decoders, 5031 to 5033 are video decompression circuits, 504 is an image processing circuit, 505 is an OSD (On-Screen Display) circuit, 506 is a reference signal generation circuit, and 507 is a control. A circuit 508 is a memory.

図7の説明においては、システムデコーダ5021〜5023、映像伸張回路5031〜5033、画像処理回路504はハードウェアとして説明される。しかしこれらは、制御回路507が各々に対応する機能を持つプログラムをメモリ508に展開して実行することにより、各機能をソフトウェアでも実現可能である。以下では説明の簡略化のため、各機能に対応するプログラムを制御回路507が実行する場合も含め、システムデコーダ5021〜5023、映像伸張回路5031〜5033、画像処理回路504が動作主体として各処理を実行するように説明する。   In the description of FIG. 7, the system decoders 5021 to 5023, the video expansion circuits 5031 to 5033, and the image processing circuit 504 are described as hardware. However, these functions can also be realized by software by causing the control circuit 507 to develop and execute a program having functions corresponding to each in the memory 508. In the following, for simplification of description, the system decoders 5021 to 5023, the video expansion circuits 5031 to 5033, and the image processing circuit 504 perform each process including the case where the control circuit 507 executes a program corresponding to each function. Explain to be executed.

カメラ1〜3で生成されたLANパケット60は、それぞれLANインタフェース回路5011〜5013へ入力される。カメラ1から入力されたLANパケット60は、LANインタフェース回路5011において、LANパケットヘッダ601が取り除かれ、前述のネットワークプロトコルに従い、LANパケットデータ602からトランスポートパケット40が取り出される。トランスポートパケット40は、システムデコーダ5021に入力され、トランスポートパケット40から前述のパケット情報402が取り出され、結合されて、図4で示したディジタル圧縮映像信号となる。このディジタル圧縮映像信号は、映像伸張回路5031において、伸張処理が行われ、ディジタル映像信号として画像処理回路504に入力される。カメラ2、3から入力されるLANパケット60についても同様の処理が行われ、映像伸張回路5032、5033からディジタル映像信号が画像処理回路に入力される。画像処理回路504では、各カメラからの映像信号の歪補正、座標の置き換えによる視点変換、合成処理等を施し、OSD回路505に出力、あるいは、各カメラからの映像信号による物体形状の認識、距離の計測などの画像処理を行う。OSD回路505では、画像処理回路504からの映像信号に文字や図形を重畳し、ディスプレイ6に出力する。   LAN packets 60 generated by the cameras 1 to 3 are input to the LAN interface circuits 5011 to 5013, respectively. In the LAN packet 60 input from the camera 1, the LAN packet header 601 is removed by the LAN interface circuit 5011, and the transport packet 40 is extracted from the LAN packet data 602 according to the network protocol described above. The transport packet 40 is input to the system decoder 5021, and the packet information 402 described above is extracted from the transport packet 40 and combined into the digital compressed video signal shown in FIG. This digital compressed video signal is subjected to expansion processing in a video expansion circuit 5031 and is input to the image processing circuit 504 as a digital video signal. The same processing is performed for the LAN packet 60 input from the cameras 2 and 3, and digital video signals are input from the video expansion circuits 5032 and 5033 to the image processing circuit. The image processing circuit 504 performs distortion correction of the video signal from each camera, viewpoint conversion by coordinate replacement, synthesis processing, etc., and outputs to the OSD circuit 505 or recognition of the object shape by the video signal from each camera, distance Image processing such as measurement is performed. The OSD circuit 505 superimposes characters and figures on the video signal from the image processing circuit 504 and outputs it to the display 6.

基準信号発生回路506は、例えば映像信号フレームの区切りを示すフレームパルスを画像処理回路504やOSD回路505の処理タイミングの基準となる基準信号として、画像処理回路504、OSD回路505に供給する。この基準信号は、例えば1フレーム分の映像伸張処理が完了した時点を基準とし発生され、基準信号の調節は、制御回路507が基準信号発生回路506を制御することで行われる。   The reference signal generation circuit 506 supplies, for example, a frame pulse indicating a video signal frame break to the image processing circuit 504 and the OSD circuit 505 as a reference signal serving as a reference for processing timing of the image processing circuit 504 and the OSD circuit 505. The reference signal is generated with reference to, for example, the time when the video expansion process for one frame is completed, and the reference signal is adjusted by the control circuit 507 controlling the reference signal generation circuit 506.

また、LANインタフェース回路5011から5013では、各カメラとの制御のための情報のやり取りを行うため、制御回路507からの指示などの情報を、LANパケット情報602に格納し、各カメラに送信、あるいは各カメラから受信したLANパケット60のLANパケット情報602から情報を取り出し制御回路507に伝達する。   Further, in the LAN interface circuits 5011 to 5013, in order to exchange information for control with each camera, information such as an instruction from the control circuit 507 is stored in the LAN packet information 602 and transmitted to each camera. Information is extracted from the LAN packet information 602 of the LAN packet 60 received from each camera and transmitted to the control circuit 507.

図8は、コントローラ5の内部ブロック構成の他の一例を示す図である。501はLANインタフェース回路であり、図示しないスイッチングハブ装置を介してカメラ1から3に接続される。LANインタフェース回路501では、前述のLANパケットヘッダ601に格納されているアドレス情報から、各カメラからのLANパケットを区別し、前述のネットワークプロトコルに従い、LANパケット60のLANパケット情報602から取り出したトランスポートパケット40をシステムデコーダ5021〜5023に振り分けて出力する。システムデコーダ5021〜5023以降の処理は、図7の説明と同様である。   FIG. 8 is a diagram illustrating another example of the internal block configuration of the controller 5. A LAN interface circuit 501 is connected to the cameras 1 to 3 via a switching hub device (not shown). The LAN interface circuit 501 discriminates the LAN packet from each camera from the address information stored in the LAN packet header 601 described above, and the transport extracted from the LAN packet information 602 of the LAN packet 60 according to the network protocol described above. The packet 40 is distributed to the system decoders 5021 to 5023 and output. The processing after the system decoders 5021 to 5023 is the same as the description of FIG.

また、LANインタフェース回路501では、各カメラとの制御のための情報のやり取りを行うため、制御回路507からの指示などの情報を、LANパケット情報602に格納し、各カメラに送信、あるいは各カメラから受信したLANパケット60のLANパケット情報602から情報を取り出し制御回路507に伝達する。   Further, in the LAN interface circuit 501, in order to exchange information for control with each camera, information such as an instruction from the control circuit 507 is stored in the LAN packet information 602 and transmitted to each camera, or each camera The information is extracted from the LAN packet information 602 of the LAN packet 60 received from, and transmitted to the control circuit 507.

図9は、本実施例における、コントローラによる遅延時間取得処理のフローチャートである。コントローラ5は、まずLAN4に接続されているカメラを確認する(ステップS101)。これは例えばLAN4に接続されている装置全てにパケットを送信できるブロードキャストパケットにより実現できる。また、各カメラに対し個別に確認のパケットを送信してもよい。次にLAN4に接続されている各カメラに対し、それぞれのカメラの処理遅延時間を問い合わせ(ステップS102)、各カメラからの処理遅延時間の回答を受信する(ステップS103)。これにより、コントローラ5は、LAN4に接続されているカメラの処理遅延時間を取得することができる。これらの処理は、例えばコントローラ5の電源立ち上げ時に行われる。   FIG. 9 is a flowchart of the delay time acquisition process by the controller in this embodiment. The controller 5 first confirms the camera connected to the LAN 4 (step S101). This can be realized by, for example, a broadcast packet that can transmit a packet to all devices connected to the LAN 4. Further, a confirmation packet may be transmitted to each camera individually. Next, each camera connected to the LAN 4 is inquired about the processing delay time of each camera (step S102), and the response of the processing delay time from each camera is received (step S103). Thereby, the controller 5 can acquire the processing delay time of the camera connected to the LAN 4. These processes are performed, for example, when the controller 5 is turned on.

図10は、本実施例における、カメラにおける遅延時間回答処理のフローチャートである。前述のように、コントローラ5から、遅延時間問い合わせ要求を受信した場合(ステップS301)、そのカメラで設定可能な遅延時間、例えば最短遅延時間から設定可能な最長遅延時間までの範囲をコントローラ5に対し回答として送信する(ステップS302)。これにより、LAN4に接続されているカメラは、そのカメラの処理遅延時間をコントローラに伝達することが可能になる。カメラは、コントローラ5からの要求より前に、又はコントロール5からの要求に応じ、取得する映像の圧縮方法、映像のビットレートに基づいて最短遅延時間を算出し、算出した最短遅延時間をメモリ109に格納し、必要に応じメモリ109から最短遅延時間を読み出して上記のとおりコントローラ5に対し通知する。コントローラ5からの要求に応じてカメラが最短遅延時間を算出する場合、その要求時点における、カメラでの映像の圧縮方法やビットレートに応じた最短遅延時間を算出できるという効果がある。特にコントローラ5がカメラに圧縮方法やビットレートの変更を指示可能な場合には効果的である。   FIG. 10 is a flowchart of the delay time answer process in the camera according to this embodiment. As described above, when a delay time inquiry request is received from the controller 5 (step S301), a delay time that can be set by the camera, for example, a range from the shortest delay time to the longest delay time that can be set is given to the controller 5. It transmits as a reply (step S302). As a result, the camera connected to the LAN 4 can transmit the processing delay time of the camera to the controller. The camera calculates the shortest delay time based on the compression method of the video to be acquired and the bit rate of the video before the request from the controller 5 or in response to the request from the control 5. And the shortest delay time is read from the memory 109 as necessary and notified to the controller 5 as described above. When the camera calculates the shortest delay time in response to a request from the controller 5, there is an effect that the shortest delay time can be calculated according to the video compression method and bit rate at the time of the request. This is particularly effective when the controller 5 can instruct the camera to change the compression method or bit rate.

図11は、コントローラによる遅延時間設定処理のフローチャートである。まず設定する処理遅延時間を決定する(ステップS201)。ここでは、図9の遅延時間取得処理により得られた各カメラの最短遅延時間の中で一番長い時間を、各カメラに設定する処理遅延時間とする。ただし、各カメラの最長遅延時間の中で一番短い時間よりも短い処理遅延時間がカメラに設定されることを要件とする。   FIG. 11 is a flowchart of the delay time setting process by the controller. First, the processing delay time to be set is determined (step S201). Here, the longest time among the shortest delay times of each camera obtained by the delay time acquisition process of FIG. 9 is set as the processing delay time set for each camera. However, it is a requirement that the processing delay time shorter than the shortest time among the longest delay times of each camera is set in the camera.

この要件が満たされない場合は、コントローラ5は、満たされない最短遅延時間を送信したカメラに対し、最短遅延時間の短縮要求を送信し、また、満たされない最長遅延時間を送信したカメラに対し、最長遅延時間の延長要求を送信する。最短遅延時間の短縮要求を受け取ったカメラは、例えば、圧縮処理方法を変更することにより、最短処理時間の短縮を試みることが可能である。コントローラ5は、前記短縮要求に対して各カメラから受け取った最短遅延時間、最長遅延時間が上記要件を満たすか判断する。要件がなおも満たされない場合、コントローラ5は、エラーを出力する。要件が満たされた場合、コントローラ5は、上記短縮要求により短縮された最短遅延時間を、各カメラに設定する処理遅延時間とする。   If this requirement is not satisfied, the controller 5 transmits a request for shortening the shortest delay time to the camera that has transmitted the shortest delay time that is not satisfied, and the longest delay to the camera that has transmitted the longest delay time that is not satisfied. Send time extension request. A camera that has received a request for shortening the shortest delay time can attempt to shorten the shortest processing time by, for example, changing the compression processing method. The controller 5 determines whether the shortest delay time and the longest delay time received from each camera in response to the shortening request satisfy the above requirements. If the requirement is still not met, the controller 5 outputs an error. When the requirement is satisfied, the controller 5 sets the shortest delay time shortened by the shortening request as a processing delay time set for each camera.

次に、コントローラ5は、各カメラに対し、決定した処理遅延時間の設定を要求し(ステップS202)、各カメラからの設定結果の回答を受信する(ステップS203)。これにより、コントローラ5はLAN4に接続されているカメラに対し処理遅延時間の設定が可能となる。   Next, the controller 5 requests each camera to set the determined processing delay time (step S202), and receives an answer of the setting result from each camera (step S203). Thereby, the controller 5 can set the processing delay time for the camera connected to the LAN 4.

図12は、本実施例における、カメラにおける遅延時間設定処理のフローチャートである。前述のように、コントローラ5から、遅延時間の設定要求を受信した場合(ステップS401)、カメラは遅延時間を設定し(ステップS402)、その結果をコントローラに対し回答として送信する(ステップS403)。これにより、LAN4に接続されているカメラは、コントローラからの要求に応じて、処理遅延時間を設定することが可能になる。   FIG. 12 is a flowchart of the delay time setting process in the camera according to the present embodiment. As described above, when a delay time setting request is received from the controller 5 (step S401), the camera sets a delay time (step S402), and transmits the result as a reply to the controller (step S403). As a result, the camera connected to the LAN 4 can set the processing delay time in response to a request from the controller.

図13は、本実施例における各カメラの送信処理タイミングとコントローラ5の受信処理タイミングの一例を示す図である。同図中、(1−1)〜(1−4)はカメラ1の処理タイミング、(2−1)〜(2−5)はカメラ2の処理タイミング、(3−1)〜(3−8)はコントローラ5の処理タイミングを示す。   FIG. 13 is a diagram illustrating an example of the transmission processing timing of each camera and the reception processing timing of the controller 5 in the present embodiment. In the figure, (1-1) to (1-4) are processing timings of the camera 1, (2-1) to (2-5) are processing timings of the camera 2, and (3-1) to (3-8). ) Shows the processing timing of the controller 5.

(1−1)は基準信号1であり、(1−2)は撮像素子101による撮像処理を行っている撮像タイミング1、(1−3)は映像圧縮回路102による映像圧縮処理を行っている映像圧縮タイミング1、(1−4)はLANインタフェース回路107による送信処理を行っている送信タイミング1である。ここでは、基準信号毎に1フレーム分の映像信号の処理を行っている。カメラ1は、基準信号1を処理の基準として、例えば基準信号1のパルスのタイミングで撮像処理を開始し、その後、映像圧縮処理、送信処理を順に行っていく。カメラ1では、基準信号1から送信タイミング1の送信処理開始までの時間d1が処理遅延時間となる。   (1-1) is the reference signal 1, (1-2) is the imaging timing 1 when the imaging process is performed by the imaging device 101, and (1-3) is the video compression process by the video compression circuit 102. Video compression timing 1 and (1-4) are transmission timing 1 at which transmission processing by the LAN interface circuit 107 is performed. Here, a video signal for one frame is processed for each reference signal. The camera 1 uses the reference signal 1 as a processing reference, starts imaging processing, for example, at the timing of the pulse of the reference signal 1, and then sequentially performs video compression processing and transmission processing. In the camera 1, a time d1 from the reference signal 1 to the start of transmission processing at the transmission timing 1 is a processing delay time.

また、(2−1)はカメラ2の基準信号2であり、(2−2)はカメラ2の撮像素子101による撮像処理を行っている撮像タイミング2、(2−3)は映像圧縮回路102による映像圧縮処理を行っている映像圧縮タイミング2、(2−4)はカメラ2に処理遅延時間の設定が行われない場合のLANインタフェース回路107による送信処理を行っている送信タイミング2である。カメラ2は、基準信号2を処理の基準として、基準信号2のタイミングで撮像処理を開始し、その後、映像圧縮処理、送信処理を順に行っていく。カメラ2では、基準信号2から送信タイミング2までの時間d2が処理遅延時間となる。また、前述のように、カメラ1の基準信号1と、カメラ2の基準信号2は同期している。   Also, (2-1) is the reference signal 2 of the camera 2, (2-2) is the imaging timing 2 at which imaging processing by the imaging device 101 of the camera 2 is performed, and (2-3) is the video compression circuit 102. (2-4) is a transmission timing 2 at which transmission processing by the LAN interface circuit 107 is performed when the processing delay time is not set in the camera 2. The camera 2 starts imaging processing at the timing of the reference signal 2 using the reference signal 2 as a processing reference, and then sequentially performs video compression processing and transmission processing. In the camera 2, a time d2 from the reference signal 2 to the transmission timing 2 is a processing delay time. Further, as described above, the reference signal 1 of the camera 1 and the reference signal 2 of the camera 2 are synchronized.

ここでコントローラ5は、前述のように、カメラ1とカメラ2の処理遅延時間を取得する。取得した結果、カメラ1の処理遅延時間の方がカメラ2の処理遅延時間d2より長いので、カメラ2に対し、処理遅延時間がd1となるよう、コントローラ5はカメラ2の処理遅延時間を設定する。(2−5)は処理遅延時間が設定された後の送信タイミング2′である。処理遅延時間の調節は、ここでは例えば、図2に示した、システムエンコーダ104からパケットバッファ105に格納されたパケット列をLANインタフェース回路107に入力するために読み出すタイミングを調節することにより実現できる。これにより、カメラ1の送信タイミング1と、カメラ2の送信タイミング2′が一致することになる。   Here, the controller 5 acquires the processing delay times of the cameras 1 and 2 as described above. As a result, since the processing delay time of the camera 1 is longer than the processing delay time d2 of the camera 2, the controller 5 sets the processing delay time of the camera 2 so that the processing delay time is d1 for the camera 2. . (2-5) is the transmission timing 2 'after the processing delay time is set. Here, the adjustment of the processing delay time can be realized, for example, by adjusting the timing of reading out the packet sequence stored in the packet buffer 105 from the system encoder 104 to be input to the LAN interface circuit 107, as shown in FIG. Thereby, the transmission timing 1 of the camera 1 and the transmission timing 2 ′ of the camera 2 coincide.

次に(3−1)は、コントローラ5がカメラ1からのLANパケットの受信処理を行っている受信タイミング1、(3−2)は映像伸張回路5031による映像伸張処理を行っている映像伸張タイミング1、(3−3)は、映像伸張回路5031により伸張され得られた1フレーム分のカメラ1の映像出力タイミング1である。また、(3−4)は、コントローラ5がカメラ2からのLANパケットの受信処理を行っている受信タイミング2、(3−5)は映像伸張回路5032による映像伸張処理を行っている映像伸張タイミング2、(3−6)は、映像伸張回路5032により伸張され得られた1フレーム分のカメラ2の映像出力タイミング2である。さらに、(3−7)は、コントローラ5における基準信号C、(3−8)は、コントローラ5がディスプレイ6に出力する表示映像の表示タイミングCである。   Next, (3-1) is reception timing 1 at which the controller 5 performs reception processing of the LAN packet from the camera 1, and (3-2) is video expansion timing at which video expansion processing by the video expansion circuit 5031 is performed. 1, (3-3) is the video output timing 1 of the camera 1 for one frame obtained by the video decompression circuit 5031. Also, (3-4) is the reception timing 2 when the controller 5 is receiving the LAN packet from the camera 2, and (3-5) is the video expansion timing when the video expansion circuit 5032 is performing the video expansion processing. 2 and (3-6) are the video output timing 2 of the camera 2 for one frame obtained by the video expansion circuit 5032. Further, (3-7) is the reference signal C in the controller 5, and (3-8) is the display timing C of the display video that the controller 5 outputs to the display 6.

コントローラ5は、カメラ1からの受信タイミング1を処理の基準とし、受信処理に引き続き映像伸張処理を順に行っていく。同様にカメラ2からの受信処理に引き続き映像伸張処理を行う。ここで、カメラ1の送信タイミング1と、カメラ2の送信タイミング2′が一致しているので、映像出力タイミング1と映像出力タイミング2は一致する。例えば基準信号Cは、映像出力タイミング1および2に合わせて生成され、基準信号Cのパルスのタイミングで表示処理を行うことで、例えばカメラ1の映像とカメラ2の映像を合成し、表示タイミングCで合成映像をディスプレイ6に表示することが可能になる。   The controller 5 uses the reception timing 1 from the camera 1 as a processing reference, and sequentially performs the video expansion processing following the reception processing. Similarly, the video expansion process is performed following the reception process from the camera 2. Here, since the transmission timing 1 of the camera 1 and the transmission timing 2 ′ of the camera 2 match, the video output timing 1 and the video output timing 2 match. For example, the reference signal C is generated in accordance with the video output timings 1 and 2, and display processing is performed at the pulse timing of the reference signal C, so that, for example, the video of the camera 1 and the video of the camera 2 are combined, and the display timing C This makes it possible to display the synthesized video on the display 6.

図14は、本実施例における各カメラの送信処理タイミングの他の一例を示す図である。コントローラ5は、カメラ2に対し、処理遅延時間がd1となるよう、コントローラ5はカメラ2の処理遅延時間を設定するが、この例では、カメラ2は処理遅延時間がd1となるよう、映像圧縮処理を開始するタイミングを調節する。この処理遅延時間の調節は、例えば、図2に示した映像圧縮回路102から映像バッファに格納された映像データを映像圧縮回路102が映像圧縮処理のため読み出すタイミングを調節することにより実現できる。(2−6)は処理遅延時間が設定された後の映像圧縮タイミング2′であり、(2−7)はそれに伴った送信タイミング2′′である。これによりカメラ1の送信タイミング1と、カメラ2の送信タイミング2′′が一致することになる。従って図13と同様に、カメラ1の映像とカメラ2の映像を合成し、表示タイミングCで合成映像をディスプレイ6に表示することが可能になる。   FIG. 14 is a diagram illustrating another example of the transmission processing timing of each camera in the present embodiment. The controller 5 sets the processing delay time of the camera 2 so that the processing delay time is d1 for the camera 2. In this example, the video compression is performed so that the camera 2 has the processing delay time d1. Adjust the timing to start processing. This adjustment of the processing delay time can be realized, for example, by adjusting the timing at which the video compression circuit 102 reads out the video data stored in the video buffer from the video compression circuit 102 shown in FIG. (2-6) is the video compression timing 2 ′ after the processing delay time is set, and (2-7) is the transmission timing 2 ″ associated therewith. As a result, the transmission timing 1 of the camera 1 and the transmission timing 2 ″ of the camera 2 coincide. Accordingly, similarly to FIG. 13, the video of the camera 1 and the video of the camera 2 can be synthesized and the synthesized video can be displayed on the display 6 at the display timing C.

以上の説明では、処理時間遅延時間を起点である基準信号から終点である送信開始時間までと定義したが、これに限定するものではなく、例えば起点は撮像素子101が撮像を開始する時間としてもよく、また終点を各フレームの送信タイミングの送信終了時間としてもよいし。   In the above description, the processing time delay time is defined as the reference signal that is the starting point to the transmission start time that is the ending point. However, the present invention is not limited to this. For example, the starting point may be the time when the image sensor 101 starts imaging. The end point may be the transmission end time of the transmission timing of each frame.

また、例えばカメラごとの圧縮方式の違いやビットレートの違いによる映像伸張処理時間の差分をカメラに対する設定処理時間に加味することで各カメラの映像出力タイミングを合わせることも可能である。この場合、コントローラ5は、映像伸張処理時間をカメラごとに測定し、最も長い映像伸張処理時間からの差分を追加的な処理遅延時間として、各カメラの処理遅延時間に合計したものを各カメラに処理遅延時間として送信し、各カメラに新たな処理遅延時間の設定を指示することで、コントローラ5における各カメラの映像出力タイミング((3−3)、(3−6)等)をより正確に揃えることが可能である。   Further, for example, the video output timing of each camera can be matched by adding the difference in video expansion processing time due to the difference in compression method or bit rate for each camera to the setting processing time for the camera. In this case, the controller 5 measures the video expansion processing time for each camera, sets the difference from the longest video expansion processing time as an additional processing delay time, and adds the processing delay time of each camera to each camera. By transmitting as a processing delay time and instructing each camera to set a new processing delay time, the video output timing ((3-3), (3-6), etc.) of each camera in the controller 5 can be more accurately determined. It is possible to align.

また、各カメラの処理遅延時間の取得は、コントローラ5からの問い合わせにより実現する例を示したが、例えばカメラの電源立ち上げ時やLAN4に接続された時に、各カメラ側からコントローラ5に対して通知してもよい。   In addition, an example in which the processing delay time of each camera is acquired by an inquiry from the controller 5 has been shown. However, for example, when the camera is turned on or connected to the LAN 4, the camera 5 receives the controller 5 from the camera side. You may be notified.

また、以上の説明では、映像信号の送受信について説明したが、音声信号の伝送も同様に可能である。   In the above description, transmission / reception of a video signal has been described. However, transmission of an audio signal is also possible.

以上のように、各カメラにおける遅延時間を調節することにより、表示タイミングの合った映像を表示することが可能になる。   As described above, by adjusting the delay time in each camera, it is possible to display an image with a suitable display timing.

また、コントローラ5は各カメラからの映像の表示タイミングずれを吸収する処理をする必要がないので、処理が複雑になることなく表示タイミングの合った映像を表示することが可能になる。   Further, since the controller 5 does not need to perform processing to absorb the display timing deviation of the video from each camera, it is possible to display the video with the display timing matched without complicating the processing.

1、2、3…カメラ
4…LAN
5…コントローラ
6…ディスプレイ
100…レンズ
101…撮像素子
102…映像圧縮回路
103…映像バッファ
104…システムエンコーダ
105…パケットバッファ
106…基準信号発生回路
107…LANインタフェース回路
108…制御回路
201…イントラフレーム
202…インターフレーム
301…シーケンスヘッダ
302…ピクチャヘッダ
40…トランスポートパケット
401…パケットヘッダ
402…パケット情報
501、5011、5012、5013…LANインタフェース回路
5021、5022、5023…システムデコーダ
5031、5032、5033…映像伸張回路
504…画像処理回路
505…OSD回路
506…基準信号発生回路
507…制御回路
60…LANパケット
601…LANパケットヘッダ
602…LANパケット情報
1, 2, 3 ... Camera 4 ... LAN
5 ... Controller 6 ... Display 100 ... Lens 101 ... Image sensor 102 ... Video compression circuit 103 ... Video buffer 104 ... System encoder 105 ... Packet buffer 106 ... Reference signal generation circuit 107 ... LAN interface circuit 108 ... Control circuit 201 ... Intra frame 202 ... interframe 301 ... sequence header 302 ... picture header 40 ... transport packet 401 ... packet header 402 ... packet information 501, 5011, 5012, 5013 ... LAN interface circuits 5021, 5022, 5023 ... system decoders 5031, 5032, 5033 ... video Expansion circuit 504 ... Image processing circuit 505 ... OSD circuit 506 ... Reference signal generation circuit 507 ... Control circuit 60 ... LAN packet 601 ... LAN packet header 6 2 ... LAN packet information

Claims (13)

基準信号により一定周期で撮像した映像信号をディジタル圧縮符号化する圧縮手段と、
ネットワークに接続された映像受信装置に、当該ネットワークを介して前記ディジタル圧縮符号化された映像信号を送信するネットワーク処理手段と、
前記圧縮手段と前記ネットワーク処理手段を制御する制御手段と、
を備え、
前記制御手段は、前記映像受信装置からの要求に応じ、前記映像信号をディジタル圧縮符号化して前記ネットワークに送信するまでの処理時間を変更することを特徴とする映像送信装置。
A compression means for digitally compressing and encoding a video signal imaged at a fixed period by a reference signal;
Network processing means for transmitting the digital compression-encoded video signal to the video receiver connected to the network via the network;
Control means for controlling the compression means and the network processing means;
With
The video transmission device according to claim 1, wherein the control means changes a processing time from digital compression coding of the video signal to transmission to the network in response to a request from the video reception device.
請求項1に記載の映像送信装置において、
前記制御手段は前記基準信号に対し前記圧縮手段の圧縮開始時間を変更することを特徴とする映像送信装置。
The video transmission device according to claim 1,
The video transmission apparatus according to claim 1, wherein the control unit changes a compression start time of the compression unit with respect to the reference signal.
請求項1に記載の映像送信装置において、
前記制御手段は前記基準信号に対し前記ネットワーク処理手段の送信処理開始時間を変更することを特徴とする映像送信装置。
The video transmission device according to claim 1,
The video transmission apparatus, wherein the control unit changes a transmission processing start time of the network processing unit with respect to the reference signal.
基準信号により一定周期で撮像した映像信号をディジタル圧縮符号化し、
ネットワークに接続された映像受信装置に、当該ネットワークを介して前記ディジタル圧縮符号化された映像信号を送信する映像送信方法において、
前記映像受信装置からの要求に応じ、前記映像信号をディジタル圧縮符号化して前記ネットワークに送信するまでの処理時間を変更することを特徴とする映像送信方法。
Digitally compress and encode a video signal captured at a fixed period using a reference signal,
In a video transmission method for transmitting the digital compression-encoded video signal to a video reception device connected to a network via the network,
In accordance with a request from the video receiver, a video transmission method is characterized in that a processing time from digital compression encoding of the video signal to transmission to the network is changed.
撮像した映像信号をディジタル圧縮符号化する圧縮手段と、
ネットワークに接続された映像受信装置に、当該ネットワークを介して前記ディジタル圧縮符号化された映像信号を送信するネットワーク処理手段と、
前記圧縮手段と前記ネットワーク処理手段を制御する制御手段と、
を備え、
前記制御手段は、前記映像受信装置に対し、前記映像信号をディジタル圧縮符号化して前記ネットワークに送信するまでの処理時間を通知することを特徴とする映像送信装置。
Compression means for digitally compressing and encoding the captured video signal;
Network processing means for transmitting the digital compression-encoded video signal to the video receiver connected to the network via the network;
Control means for controlling the compression means and the network processing means;
With
The video transmission apparatus characterized in that the control means notifies the video reception apparatus of a processing time until the video signal is digitally compressed and encoded and transmitted to the network.
請求項5に記載の映像送信装置において、
前記制御手段は、前記映像受信装置の要求に応じて、前記映像信号をディジタル圧縮符号化して前記ネットワークに送信するまでの処理時間を通知することを特徴とする映像送信装置。
The video transmission device according to claim 5,
The video transmission apparatus according to claim 1, wherein the control means notifies a processing time until the video signal is digitally compressed and encoded and transmitted to the network in response to a request from the video reception apparatus.
一定周期で撮像した映像信号をディジタル圧縮符号化し、
ネットワークに接続された映像受信装置に、当該ネットワークを介して前記ディジタル圧縮符号化された映像信号を送信する映像送信方法において、
前記映像信号をディジタル圧縮符号化して前記ネットワークに送信するまでの処理時間を前記映像受信装置に通知することを特徴とする映像送信方法。
Digitally compresses and encodes video signals captured at regular intervals,
In a video transmission method for transmitting the digital compression-encoded video signal to a video reception device connected to a network via the network,
A video transmission method comprising: notifying the video reception device of a processing time until the video signal is digitally compressed and encoded and transmitted to the network.
ネットワークに接続された複数の映像送信装置から送信されるディジタル圧縮符号化された複数の映像信号データのストリームを受信するネットワーク処理手段と、
前記ネットワーク処理手段で受信した複数の前記映像データを復号する復号手段と、
前記復号手段により復号した複数の前記映像信号を基にした映像を表示する映像表示手段と、
前記映像送信装置を制御する制御手段と、
を備え、
前記制御手段は、前記映像送信装置がディジタル圧縮符号化して前記ネットワークに送信するのに要する処理遅延時間情報を前記複数の映像送信装置から取得することを特徴とする映像受信装置。
Network processing means for receiving a plurality of digital compression encoded video signal data streams transmitted from a plurality of video transmission devices connected to the network;
Decoding means for decoding the plurality of video data received by the network processing means;
Video display means for displaying video based on the plurality of video signals decoded by the decoding means;
Control means for controlling the video transmission device;
With
The video receiving apparatus characterized in that the control means acquires processing delay time information required for the video transmitting apparatus to perform digital compression encoding and transmit to the network from the plurality of video transmitting apparatuses.
ネットワークに接続された複数の映像送信装置から送信されるディジタル圧縮符号化された複数の映像信号データのストリームを受信するネットワーク処理手段と、
前記ネットワーク処理手段で受信した複数の前記映像データを復号する復号手段と、
前記復号手段により復号した複数の前記映像信号を基にした映像を表示する映像表示手段と、
前記映像送信装置を制御する制御手段と、
を備え、
前記制御手段は、前記複数の映像送信装置に対して、前記映像送信装置がディジタル圧縮符号化して前記ネットワークに送信するのに要する処理遅延時間情報を通知要求することを特徴とする映像受信装置。
Network processing means for receiving a plurality of digital compression encoded video signal data streams transmitted from a plurality of video transmission devices connected to the network;
Decoding means for decoding the plurality of video data received by the network processing means;
Video display means for displaying video based on the plurality of video signals decoded by the decoding means;
Control means for controlling the video transmission device;
With
The video receiving apparatus characterized in that the control means requests the plurality of video transmitting apparatuses to notify processing delay time information required for the video transmitting apparatus to perform digital compression encoding and transmit to the network.
請求項8または請求項9に記載の映像受信装置において、
前記制御手段は、前記映像送信装置に対して、所望の処理遅延時間となるよう処理遅延時間を設定要求することを特徴とする映像受信装置。
In the video receiver according to claim 8 or 9,
The video receiving apparatus characterized in that the control means requests the video transmission apparatus to set a processing delay time so as to have a desired processing delay time.
請求項10に記載の映像受信装置において、
前記制御手段は、前記映像送信装置から取得した前記処理遅延時間情報のうち、最も処理遅延時間の長い処理遅延時間となるよう、前記映像送信装置に対して、処理遅延時間を設定要求することを特徴とする映像受信装置。
The video receiving device according to claim 10,
The control means requests the video transmission apparatus to set a processing delay time so that the processing delay time having the longest processing delay time among the processing delay time information acquired from the video transmission apparatus is obtained. A featured video receiver.
ネットワークに接続された複数の映像送信装置から送信されるディジタル圧縮符号化された複数の映像信号データのストリームを受信し、
受信した複数の前記映像データを復号し、
復号した複数の前記映像信号を基にした映像を表示する映像受信方法において、
前記映像送信装置がディジタル圧縮符号化して前記ネットワークに送信するのに要する処理遅延時間情報を前記映像送信装置から取得することを特徴とする映像受信方法。
Receiving a plurality of digital compression encoded video signal data streams transmitted from a plurality of video transmission devices connected to a network;
Decoding a plurality of the received video data;
In a video receiving method for displaying video based on a plurality of decoded video signals,
A video receiving method characterized in that processing delay time information required for the video transmission apparatus to perform digital compression encoding and transmission to the network is acquired from the video transmission apparatus.
ネットワークに接続された複数の映像送信装置から送信されるディジタル圧縮符号化された複数の映像信号データのストリームを受信し、
受信した複数の前記映像データを復号し、
復号した複数の前記映像信号を基にした映像を表示する映像受信方法において、
前記複数の映像送信装置に対して、前記映像送信装置がディジタル圧縮符号化して前記ネットワークに送信するのに要する処理遅延時間情報を通知要求することを特徴とする映像受信方法。
Receiving a plurality of digital compression encoded video signal data streams transmitted from a plurality of video transmission devices connected to a network;
Decoding a plurality of the received video data;
In a video receiving method for displaying video based on a plurality of decoded video signals,
A video receiving method comprising: requesting the plurality of video transmitting apparatuses to notify processing delay time information required for the video transmitting apparatus to perform digital compression encoding and transmit to the network.
JP2011050973A 2011-03-09 2011-03-09 Image transmitter, image transmission method, image receiver, and image reception method Withdrawn JP2012191284A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011050973A JP2012191284A (en) 2011-03-09 2011-03-09 Image transmitter, image transmission method, image receiver, and image reception method
PCT/JP2012/000331 WO2012120763A1 (en) 2011-03-09 2012-01-20 Video transmission device, video transmission method, video receiving device, and video receiving method
US13/884,808 US20130287122A1 (en) 2011-03-09 2012-01-20 Video transmission device, video transmission method, video receiving device, and video receiving method
CN201280003633.7A CN103210656B (en) 2011-03-09 2012-01-20 Image dispensing device, image sending method, video receiver and image method of reseptance
JP2013503342A JP5697743B2 (en) 2011-03-09 2012-01-20 Video transmission device, video transmission method, video reception device, and video reception method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011050973A JP2012191284A (en) 2011-03-09 2011-03-09 Image transmitter, image transmission method, image receiver, and image reception method

Publications (1)

Publication Number Publication Date
JP2012191284A true JP2012191284A (en) 2012-10-04

Family

ID=47084003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011050973A Withdrawn JP2012191284A (en) 2011-03-09 2011-03-09 Image transmitter, image transmission method, image receiver, and image reception method

Country Status (1)

Country Link
JP (1) JP2012191284A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110049278A (en) * 2018-01-12 2019-07-23 哉英电子股份有限公司 Video signal receiver, video reception module and vision signal receive-transmit system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110049278A (en) * 2018-01-12 2019-07-23 哉英电子股份有限公司 Video signal receiver, video reception module and vision signal receive-transmit system
CN110049278B (en) * 2018-01-12 2023-08-08 哉英电子股份有限公司 Video signal receiving module and video signal transmitting and receiving system

Similar Documents

Publication Publication Date Title
JP5697743B2 (en) Video transmission device, video transmission method, video reception device, and video reception method
JP3957460B2 (en) Transmission header compression apparatus, moving picture encoding apparatus, and moving picture transmission system
US8745432B2 (en) Delay controller, control method, and communication system
CN102891984B (en) Sending device receives system, communication system, sending method, method of reseptance and program
US20110249181A1 (en) Transmitting device, receiving device, control method, and communication system
US20090285310A1 (en) Receiving apparatus, receiving method, program and communication system
JP2013187769A (en) Encoder
US20140321556A1 (en) Reducing amount of data in video encoding
JP6193569B2 (en) RECEPTION DEVICE, RECEPTION METHOD, AND PROGRAM, IMAGING DEVICE, IMAGING METHOD, AND PROGRAM, TRANSMISSION DEVICE, TRANSMISSION METHOD, AND PROGRAM
JP2011259249A (en) Reception device, reception method and communication system
JP2012191284A (en) Image transmitter, image transmission method, image receiver, and image reception method
JP5697494B2 (en) Video transmission device, video transmission method, video reception device, and video reception method
JP2013077887A (en) Moving image compression coding device, method and control program
JP2008131591A (en) Lip-sync control device and lip-sync control method
JP2005333520A (en) Image transmission apparatus, image transmission method, transmission system, and video monitoring system
JP5799958B2 (en) Video processing server and video processing method
JP6743609B2 (en) Image synchronization apparatus, image synchronization program, and image synchronization method
WO2010117644A1 (en) Method and apparatus for asynchronous video transmission over a communication network
JP2015104072A (en) Communication apparatus, signal process program, and recording medium
JP4525697B2 (en) Transmission header compression apparatus, moving picture encoding apparatus, and moving picture transmission system
US9578327B2 (en) Encoding apparatus, encoding method, and non-transitory computer-readable storage medium
JP2002330437A (en) Image transmission method, program for the image transmission method, recording medium for recording the program for the image transmission method and image transmitter
JP4952636B2 (en) Video communication apparatus and video communication method
KR101947513B1 (en) Encoding and Decoding Method for Video Coding Using Error Concealment
JP2007336260A (en) Video monitoring device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513