JP2024055333A - IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM - Google Patents

IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM Download PDF

Info

Publication number
JP2024055333A
JP2024055333A JP2022162167A JP2022162167A JP2024055333A JP 2024055333 A JP2024055333 A JP 2024055333A JP 2022162167 A JP2022162167 A JP 2022162167A JP 2022162167 A JP2022162167 A JP 2022162167A JP 2024055333 A JP2024055333 A JP 2024055333A
Authority
JP
Japan
Prior art keywords
time
unit
image
imaging device
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022162167A
Other languages
Japanese (ja)
Inventor
恒樹 安孫子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022162167A priority Critical patent/JP2024055333A/en
Publication of JP2024055333A publication Critical patent/JP2024055333A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】合成した映像が停止している映像と違和感のない映像とするために遅延する時間から差分時間を算出して出力をする撮像装置を提供する。【解決手段】撮像装置であって、周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、撮像部の画角を変更可能なパンチルト部と、撮像部が生成した映像を出力する出力部と、同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有する、ことを特徴とする。【選択図】図2[Problem] To provide an imaging device that calculates and outputs a differential time from a delay time so that a synthesized image does not look unnatural from a still image. [Solution] The imaging device is characterized by having an imaging section that performs image processing on an image captured in accordance with a signal output from a synchronization signal transmission device that transmits a periodic signal to generate an image, a pan-tilt section that can change the angle of view of the imaging section, an output section that outputs the image generated by the imaging section, a packet generation section that obtains status information that is information on the status of the pan-tilt section when the signal output from the synchronization signal transmission device is detected and generates a packet including the status information, and a time addition section that calculates a differential time that is the difference between a first time that is the time when the status information was obtained and a second time that is the time when the packet generation section outputs the packet, and adds the differential time to the packet. [Selected Figure] Figure 2

Description

本発明は、撮像装置、撮像装置の制御方法、プログラム、情報処理装置、及び撮像システムに関するものである。 The present invention relates to an imaging device, a control method for an imaging device, a program, an information processing device, and an imaging system.

近年カメラ映像で撮影した映像と、バーチャル空間の背景映像を合成したコンテンツが求められている。特にパンチルト駆動するカメラの映像をコンピュータなどの情報処理装置に送り、情報処理装置で生成されたバーチャル空間の映像と合成したコンテンツは、動画配信やバーチャル会議などで活用が求められている。こうしたパンチルトカメラとバーチャル空間の融合に、パンチルトカメラのピッチ角、ヨー角をはじめとしたカメラの姿勢に関する情報をETHERNET(登録商標)などのネットワーク経由で送信するプロトコルがある。当該プロトコルは、撮像装置が情報処理装置の作るバーチャル空間のワールド座標系のカメラとして振る舞うためのプロトコルであって、例えばFreeDプロトコルがある。 In recent years, there has been a demand for content that combines images captured by a camera with background images of a virtual space. In particular, content in which images from a pan-tilt camera are sent to an information processing device such as a computer and combined with images of a virtual space generated by the information processing device is in demand for use in video distribution and virtual conferences. To combine such pan-tilt cameras with virtual spaces, there is a protocol that transmits information about the camera's attitude, including the pitch angle and yaw angle of the pan-tilt camera, via a network such as ETHERNET (registered trademark). This protocol allows an imaging device to act as a camera in the world coordinate system of the virtual space created by the information processing device, and an example of this is the FreeD protocol.

一方、複数のカメラ連携を想定して、カメラのHDMI(登録商標)などの映像に対して位相同期信号用いて映像のタイミングを同期し、カメラ間の映像生成の誤差を補正する技術が知られている。こうした技術背景から複数のカメラが連携した環境において、同期信号による映像の同期とFreeDプロトコルといったバーチャル空間の映像の同期を併用することが求められている。 On the other hand, there is a known technology that uses a phase synchronization signal for the camera's HDMI (registered trademark) video to synchronize the timing of the video and correct errors in video generation between cameras, assuming the linking of multiple cameras. Given this technical background, in an environment where multiple cameras are linked, there is a demand for a combination of video synchronization using a synchronization signal and video synchronization in a virtual space such as the FreeD protocol.

こうした位相同期信号による補正はフレーム間のずれを補正することが目的とされているが、FreeDプロトコルはネットワーク経由で配信される為、1フレームよりも大きなレイテンシを要し、映像信号と比較して遅延量が大きい。映像信号にFreeDといったメカ駆動情報と同期を行う技術としては特許文献1に示すような、雲台付きカメラと映像を同期させる技術があるが、パンチルト駆動の開始や終了のタイミングといった1フレーム内における時間同期をするものであった。 The purpose of such corrections using phase synchronization signals is to correct misalignment between frames, but because the FreeD protocol is distributed over a network, it requires a latency greater than one frame, and the amount of delay is greater than with video signals. One technique for synchronizing a video signal with mechanical drive information such as FreeD is the technique shown in Patent Document 1, which synchronizes a camera with a pan head with video, but this only synchronizes time within one frame, such as the start and end timing of pan-tilt drive.

また、特許文献2ではレンズとカメラといった異なるデバイス間でハード線を基準とした同期を行っているが、映像信号と、ネットワークといった異なる通信体系で同期をとるものではない。 In addition, in Patent Document 2, synchronization is performed based on a hard line between different devices such as a lens and a camera, but synchronization is not performed using different communication systems such as a video signal and a network.

特開2019-87880号公報JP 2019-87880 A 特開2017-175380号公報JP 2017-175380 A

しかしながら、特許文献1や特許文献2ではフレーム内の同期された映像信号と、パンチルト情報がネットワーク経由で通信された情報の遅延といった、スケールの異なる遅延量に関して同期を行っていない。 However, Patent Documents 1 and 2 do not synchronize the synchronized video signal within a frame with delays of different scales, such as delays in information transmitted over a network for pan/tilt information.

映像はフレーム内の時間におけるずれを同期しても、パンチルト情報がもたらされる時間が遅延してしまうため、パンチルト情報を用いて生成した3次元グラフィックと映像情報を合成した際に差異が発生してしまう。例えばパンチルトが停止した際の映像と、停止する直前のまだ駆動しているパンチルト情報に基づいた3次元グラフィックを合成すると、3次元グラフィックから生成された映像(3次元グラフィック映像)は、パンチルトが駆動中の情報をもとに生成される。そのため、停止している映像と合成した映像にユーザは違和感を覚えてしまう。 Even if the time difference within a frame is synchronized, the time that the pan/tilt information is provided is delayed, so differences arise when the 3D graphics generated using the pan/tilt information are combined with the video information. For example, if an image when the pan/tilt has stopped is combined with a 3D graphic based on the pan/tilt information just before it has stopped while the pan/tilt is still operating, the image generated from the 3D graphic (3D graphic image) is generated based on the information while the pan/tilt is operating. As a result, the user feels uncomfortable when the image is combined with the stopped image.

そこで、本発明では、合成した映像が停止している映像と違和感のない映像とするために遅延する時間から差分時間を算出して出力をする撮像装置を提供することを目的としている。 The present invention aims to provide an imaging device that calculates and outputs a difference time from the delay time so that the synthesized image does not look unnatural compared to a still image.

上記目的を達成するために、本発明の一側面としての撮像装置は、周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、撮像部の画角を変更可能なパンチルト部と、撮像部が生成した映像を出力する出力部と、同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有する、ことを特徴とする。 In order to achieve the above object, an imaging device according to one aspect of the present invention is characterized by having an imaging unit that performs image processing on an image captured in accordance with a signal output by a synchronization signal transmission device that transmits a periodic signal, and generates a video, a pan-tilt unit that can change the angle of view of the imaging unit, an output unit that outputs the video generated by the imaging unit, a packet generation unit that acquires status information that is information on the status of the pan-tilt unit when the signal output by the synchronization signal transmission device is detected, and generates a packet including the status information, and a time addition unit that calculates a differential time that is the difference between a first time that is the time when the status information was acquired and a second time that is the time when the packet generation unit outputs the packet, and adds the differential time to the packet.

本発明によれば、合成した映像が停止している映像と違和感のない映像とするために遅延する時間から差分時間を算出して出力をする撮像装置を提供することができる。 The present invention provides an imaging device that calculates and outputs a difference time from the delay time so that the synthesized image does not look unnatural compared to a still image.

実施形態1に係るシステム構成を示す図である。FIG. 1 is a diagram showing a system configuration according to a first embodiment. 実施形態1に係るシステムの機能ブロックを示す図である。FIG. 2 is a diagram showing functional blocks of a system according to the first embodiment. 実施形態1に係るパンチルト情報と映像の差分情報が無い場合における制御の時間相関を示した図である。10 is a diagram showing a time correlation of control in a case where there is no pan/tilt information and image difference information in the first embodiment. FIG. 実施形態1に係るパンチルト情報と映像の差分情報による情報処理装置での制御の時間相関を示した図である。5 is a diagram showing a time correlation of control in the information processing device based on pan/tilt information and image difference information in the first embodiment. FIG. 実施形態1に係る撮像処理部201における処理フローを示す図である。FIG. 4 is a diagram showing a processing flow in an image capturing processing unit 201 according to the first embodiment. 実施形態1に係る通信処理部202における処理フローを示す図である。FIG. 4 is a diagram showing a processing flow in a communication processing unit 202 according to the first embodiment. 実施形態1に係る情報処理装置102における処理フローを示す図である。FIG. 4 is a diagram showing a processing flow in the information processing device 102 according to the first embodiment. 実施形態2に係る差分時間が撮像装置間で差分があるシステム構成を示す図FIG. 13 is a diagram showing a system configuration in which there is a difference in differential time between imaging devices according to a second embodiment; 実施形態2に係る差分時間を同期した撮像装置と情報処理装置のシステム構成を示す図である。FIG. 11 is a diagram showing a system configuration of an imaging device and an information processing device in which difference times are synchronized according to a second embodiment. 実施形態2に係るシステムの機能ブロックを示す図である。FIG. 11 is a diagram showing functional blocks of a system according to a second embodiment. 実施形態2に係る第1の撮像装置が異なる差分時間によって動作して同期処理を行った場合を示している図である。13A and 13B are diagrams illustrating a case where the first imaging device according to the second embodiment operates based on different difference times to perform synchronization processing. 実施形態2に係る第2の撮像装置が異なる差分時間によって動作して同期処理を行った場合を示している図である。13A and 13B are diagrams illustrating a case where the second imaging device according to the second embodiment operates based on different difference times to perform synchronization processing. 実施形態2に係る第3の撮像装置が異なる差分時間によって動作して同期処理を行った場合を示している図である。13A and 13B are diagrams illustrating a case where the third imaging device according to the second embodiment operates based on different difference times to perform synchronization processing. 実施形態2に係る差分時間に差がある場合の情報処理装置での制御の時間相関を示した図である。13 is a diagram illustrating a time correlation of control in an information processing apparatus when there is a difference in differential time according to the second embodiment. FIG. 実施形態2に係る最も大きな差分時間に対応して第1の撮像装置がパケットと映像を遅延させて出力させた場合の時間関係を示す図である。13 is a diagram showing a time relationship in a case where the first imaging device outputs packets and video with a delay corresponding to the largest time difference according to the second embodiment. FIG. 実施形態2に係る最も大きな差分時間に対応して第2の撮像装置がパケットと映像を遅延させて出力させた場合の時間関係を示す図である。13 is a diagram showing a time relationship in a case where the second imaging device outputs packets and video with a delay corresponding to the largest time difference according to the second embodiment. FIG. 実施形態2に係る最も大きな差分時間に対応して第3の撮像装置がパケットと映像を遅延させて出力させた場合の時間関係を示す図である。13 is a diagram showing a time relationship when the third imaging device outputs packets and video with a delay corresponding to the largest time difference according to the second embodiment. FIG. 実施形態2に係る撮像処理部201の処理フローを示す図である。FIG. 11 is a diagram showing a processing flow of an imaging processing unit 201 according to the second embodiment. 実施形態2に係る通信処理部202の処理フローを示す図である。FIG. 11 is a diagram showing a processing flow of a communication processing unit 202 according to the second embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。ただし、本発明の実施の形態は以下の実施の形態に限定されるものではない。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。 Below, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. However, the embodiments of the present invention are not limited to the following embodiments. The same or equivalent components, parts, and processes shown in each drawing will be given the same reference numerals, and duplicated explanations will be omitted as appropriate. In addition, some parts that are not important for the explanation will be omitted in each drawing.

<実施形態1>
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステム(撮像システム)は、第1の撮像装置100、第2の撮像装置105、同期信号発信装置106、情報処理装置102、ディスプレイ104を含むように構成される。また、第1の撮像装置100、第2の撮像装置105及び情報処理装置102は、ネットワーク103を介して相互に接続されている。ネットワーク103は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。尚、ネットワーク103は、インターネットや有線LAN(Local Area Network)、無線LAN(WirelessLan)、WAN(Wide Area Network)等により実現されてもよい。
<Embodiment 1>
1 is a diagram showing a system configuration in this embodiment. The system (imaging system) in this embodiment is configured to include a first imaging device 100, a second imaging device 105, a synchronization signal transmission device 106, an information processing device 102, and a display 104. The first imaging device 100, the second imaging device 105, and the information processing device 102 are connected to each other via a network 103. The network 103 is realized by a plurality of routers, switches, cables, etc. that comply with a communication standard such as ETHERNET (registered trademark). The network 103 may be realized by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), etc.

第1の撮像装置100は、画像を撮像(撮影)する装置である。第1の撮像装置100は、雲台を備え、撮像レンズ及びCCDやCMOS等の撮像センサ(固体撮像素子)等を含み、パン回転やチルト回転をすることで撮像範囲を変更可能な撮像手段として機能する。第1の撮像装置100は、回線及びネットワーク103を介して情報処理装置102等の外部装置と通信可能に接続されている。 The first imaging device 100 is a device that captures (takes) an image. The first imaging device 100 is equipped with a camera platform, and includes an imaging lens and an imaging sensor (solid-state imaging element) such as a CCD or CMOS, and functions as an imaging means that can change the imaging range by panning and tilting. The first imaging device 100 is connected to an external device such as an information processing device 102 via a line and a network 103 so as to be able to communicate with the external device.

また、第1の撮像装置100は、後述するパンチルト部によりパン回転やチルト回転することで撮像範囲を変更しつつ画像の撮像を行うことができる。また、第1の撮像装置100は、同期信号発信装置106から同期信号を受信したタイミングで、当該撮像センサにて画像をとらえ画像処理を行い、映像を生成する。生成した映像は映像信号に変換され回線を介して情報処理装置102へ出力される。また、映像を出力した際のパンチルト部203の制御値(パンチルト情報)を、ネットワーク103を介し、情報処理装置102等の外部装置へ送信(送付)する。回線としては、例えば、HDMI(登録商標)(High Definition Multimed iaInterface)等の通信規格に準拠したケーブルである。 The first imaging device 100 can capture images while changing the imaging range by panning and tilting using a pan-tilt unit described later. When the first imaging device 100 receives a synchronization signal from a synchronization signal transmitter 106, the imaging sensor captures an image, processes the image, and generates a video. The generated video is converted into a video signal and output to the information processing device 102 via a line. The control value (pan-tilt information) of the pan-tilt unit 203 when the video is output is transmitted (sent) to an external device such as the information processing device 102 via the network 103. The line is, for example, a cable that complies with a communication standard such as HDMI (registered trademark) (High Definition Multimedia Interface).

第1の撮像装置100は、不図示であるが中央演算処理装置としてのCPU(Central Processing Unit)やRAM(andom Access Memory)やROM(Read-Only Memory)等のメモリを備える。当該CPUは、撮像装置の各構成要素に回線を介して接続され、ROM(Read-Only Memory)に格納されたコンピュータプログラムに従って、撮像装置全体の各構成要素の動作調整などを統括的に制御する。 The first imaging device 100 includes a central processing unit (CPU) (not shown) as a central processing unit, and memories such as a RAM (andom access memory) and a ROM (read-only memory). The CPU is connected to each component of the imaging device via a line, and performs overall control of the operation of each component of the entire imaging device, such as adjusting the operation of each component, according to a computer program stored in the ROM (read-only memory).

情報処理装置102は、例えば、後述する処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ(PC)等のクライアント装置である。情報処理装置102は、不図示であるがCPUやMPU等の1つ以上のプロセッサ、RAMやROM等のメモリ、HDD、各I/Fのドライバ等を備える。 The information processing device 102 is, for example, a client device such as a personal computer (PC) in which a program for implementing the processing functions described below is installed. Although not shown, the information processing device 102 includes one or more processors such as a CPU or MPU, memory such as a RAM or ROM, a HDD, drivers for each I/F, etc.

CPUは、中央演算装置であり、各種処理のための演算や論理判断等を行い、情報処理装置102における各構成要素を統括的に制御する。ROMは、プログラムメモリであって、CPUによる制御のためのコンピュータプログラムを格納する。RAMは、CPUの主メモリ、ワークエリア等の一時記憶領域として用いられる。尚、情報処理装置102に接続された外部記憶装置等からRAMにプログラムをロードすることで、プログラムメモリを実現しても構わない。 The CPU is a central processing unit that performs calculations and logical judgments for various processes and generally controls each component of the information processing device 102. The ROM is a program memory that stores computer programs for control by the CPU. The RAM is used as a temporary storage area such as the CPU's main memory and work area. Note that the program memory may be realized by loading a program into the RAM from an external storage device connected to the information processing device 102.

HDDは、電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD-ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバー装置等であってもよい。 The HDD is a hard disk for storing electronic data and programs. An external storage device may also be used to fulfill a similar role. Here, the external storage device may be realized, for example, by a medium (recording medium) and an external storage drive for realizing access to the medium. Examples of such media include flexible disks (FDs), CD-ROMs, DVDs, USB memories, MOs, and flash memories. The external storage device may also be a server device connected via a network.

I/F部は、着脱可能なデバイスと接続するためのインタフェースであり、例えば、電源と、着脱可能デバイスを着脱するための着脱ソケット等の装着機構を含む。情報処理装置102は、I/F部を介して着脱可能なデバイスとの間のデータ通信を行う。また不図示であるが、本システムにおいては、情報処理装置102と回線を介して接続される操作部も有する。操作部は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。尚、操作部は情報処理装置102と回線を介して接続される外部デバイスであるが、操作部は、情報処理装置102と同じ筐体に設けられてもよい。 The I/F unit is an interface for connecting to a removable device, and includes, for example, a power source and an attachment mechanism such as a removable socket for attaching and detaching the removable device. The information processing device 102 performs data communication with the removable device via the I/F unit. Although not shown, this system also has an operation unit connected to the information processing device 102 via a line. The operation unit has a keyboard and a mouse, and accepts various operations by the user. Note that the operation unit is an external device connected to the information processing device 102 via a line, but the operation unit may be provided in the same housing as the information processing device 102.

ディスプレイ(表示部)104は、LCD(LiquidCrystalDisplay)等により構成されており、情報処理装置102で合成された映像などを表示する表示手段として機能する。ディスプレイ104は、情報処理装置102と回線を介して通信可能に接続されており、実施形態1では、回線として例えば、HDMI(登録商標)等の通信規格に準拠したディスプレイケーブルを介して情報処理装置102と接続されている。実施形態1では、ディスプレイ104は情報処理装置102と回線を介して接続されている外部デバイスであるが、ディスプレイ104は、情報処理装置102と同じ筐体に設けられてもよい。 The display (display unit) 104 is configured with an LCD (Liquid Crystal Display) or the like, and functions as a display means for displaying images and the like synthesized by the information processing device 102. The display 104 is communicably connected to the information processing device 102 via a line, and in the first embodiment, the display 104 is connected to the information processing device 102 via a display cable that complies with a communication standard such as HDMI (registered trademark) as the line. In the first embodiment, the display 104 is an external device connected to the information processing device 102 via a line, but the display 104 may be provided in the same housing as the information processing device 102.

第2の撮像装置105は、画像を撮像(撮影)する装置である。第2の撮像装置105は、雲台を備え、撮像レンズ及びCCDやCMOS等の撮像センサ(固体撮像素子)等を含み、パン回転やチルト回転をすることで撮像範囲を変更可能な撮像手段として機能する。第2の撮像装置105は、回線及びネットワーク103を介して情報処理装置102等の外部装置と通信可能に接続されている。また、第2の撮像装置105は、後述するパンチルト部によりパン回転やチルト回転することで撮像範囲を変更しつつ画像の撮像を行うことができる。また、第2の撮像装置105は、同期信号発信装置106から同期信号を受信したタイミングで、当該撮像センサにて画像をとらえ画像処理を行い、映像を生成する。生成した映像は映像信号に変換され回線を介して情報処理装置102へ出力される。また、映像を出力した際のパンチルト部203の制御値(パンチルト情報)を、ネットワーク103を介し、情報処理装置102等の外部装置へ送信する。 The second imaging device 105 is a device that captures (takes) an image. The second imaging device 105 includes a camera platform, an imaging lens, and an imaging sensor (solid-state imaging element) such as a CCD or CMOS, and functions as an imaging means that can change the imaging range by panning and tilting. The second imaging device 105 is communicably connected to an external device such as an information processing device 102 via a line and a network 103. The second imaging device 105 can capture an image while changing the imaging range by panning and tilting using a pan-tilt unit described later. The second imaging device 105 captures an image with the imaging sensor at the timing when it receives a synchronization signal from a synchronization signal transmission device 106, performs image processing, and generates an image. The generated image is converted into a video signal and output to the information processing device 102 via the line. The control value (pan-tilt information) of the pan-tilt unit 203 when the image is output is also transmitted to an external device such as the information processing device 102 via the network 103.

尚、実施形態1に係るシステムでは、第1の撮像装置100及び第2の撮像装置105はそれぞれ1つとして説明するが、2以上であってもよい。即ち、2台以上の第1の撮像装置100や第2の撮像装置105が回線やネットワーク103を介して情報処理装置102と接続され、映像信号を情報処理装置102へ送信する構成とすることができる。 In the system according to the first embodiment, the first imaging device 100 and the second imaging device 105 are described as being one each, but there may be two or more. That is, two or more first imaging devices 100 and second imaging devices 105 can be connected to the information processing device 102 via a line or network 103 and can transmit video signals to the information processing device 102.

同期信号発信装置106は、第1の撮像装置100及び第2の撮像装置105に映像310の撮像される周波数と同様の周波数で信号(同期信号)を出力し、第1の撮像装置100と第2の撮像装置105の撮像画像が作成されるタイミングを通知する。具体的には、同期信号発信装置106は、第2の撮像装置105、第1の撮像装置100と第2の撮像装置105の映像信号の発信タイミングを電気的な信号で発信する。第1の撮像装置100と第2の撮像装置105は、同期信号発信装置106から出力される信号を受信したタイミングで撮像処理を行い、フレーム時間の幅の中で、同一のタイミングで撮像した映像310を出力する。即ち、同期信号発信装置106によって、複数の撮像装置の撮像処理のタイミングと同じタイミングとすることができる。 The synchronization signal transmission device 106 outputs a signal (synchronization signal) to the first imaging device 100 and the second imaging device 105 at the same frequency as the frequency at which the image 310 is captured, and notifies the timing at which the captured images of the first imaging device 100 and the second imaging device 105 are created. Specifically, the synchronization signal transmission device 106 transmits the transmission timing of the image signals of the second imaging device 105, the first imaging device 100, and the second imaging device 105 as an electrical signal. The first imaging device 100 and the second imaging device 105 perform imaging processing at the timing of receiving the signal output from the synchronization signal transmission device 106, and output the image 310 captured at the same timing within the width of the frame time. In other words, the synchronization signal transmission device 106 can make the timing of the imaging processing of the multiple imaging devices the same.

図2は、実施形態1に係るシステムの機能ブロックを示す図である。具体的には、第1の撮像装置100及び情報処理装置102の機能ブロックの一例を示している。尚、図2に示す各撮像装置及び情報処理装置102の各機能は、次のようにして実現されるものとする。即ち、各撮像装置、情報処理装置102それぞれに備えるROMに格納されたコンピュータプログラムを第1の撮像装置100または第2の撮像装置105のCPUが実行することで実現される。ここで、上記では、第1の撮像装置100または第2の撮像装置105のCPUとしたが、撮像装置が3つ以上の場合であっても同様である。尚、撮像装置側の各機能と情報処理装置側の各機能とは、夫々の装置におけるCPUが夫々の装置に備えるROMに格納されたコンピュータプログラムを実行することで実現してもよい。 FIG. 2 is a diagram showing the functional blocks of the system according to the first embodiment. Specifically, an example of the functional blocks of the first imaging device 100 and the information processing device 102 is shown. Note that each function of the imaging device and the information processing device 102 shown in FIG. 2 is realized as follows. That is, the CPU of the first imaging device 100 or the second imaging device 105 executes a computer program stored in a ROM provided in each imaging device and the information processing device 102. Here, although the above description is of the CPU of the first imaging device 100 or the second imaging device 105, the same applies when there are three or more imaging devices. Note that each function on the imaging device side and each function on the information processing device side may be realized by the CPU in each device executing a computer program stored in a ROM provided in each device.

実施形態1における第1の撮像装置100は、撮像処理部(撮像制御部)201と、通信処理部(通信制御部)202を有する。実施形態1では撮像処理部201と通信処理部202はそれぞれ異なるCPUを有し、機内通信で撮像処理部201と通信処理部202との相互の通信を行っている。尚、撮像処理部201、通信処理部202は同一CPUによって処理され、別コアで処理される実施形態や、同一CPU内でソフト的なモジュールの分割であってもよい。 The first imaging device 100 in the first embodiment has an imaging processing unit (imaging control unit) 201 and a communication processing unit (communication control unit) 202. In the first embodiment, the imaging processing unit 201 and the communication processing unit 202 each have a different CPU, and the imaging processing unit 201 and the communication processing unit 202 communicate with each other via in-flight communication. Note that the imaging processing unit 201 and the communication processing unit 202 may be processed by the same CPU, or may be processed by different cores, or may be divided into software modules within the same CPU.

まず、撮像処理部201の構成について述べる。撮像処理部201は、パンチルト部203、情報保持部(パンチルト情報保持部)204、時間提供部205、撮像部206、映像信号出力部207を含むように構成される。 First, the configuration of the imaging processing unit 201 will be described. The imaging processing unit 201 is configured to include a pan/tilt unit 203, an information storage unit (pan/tilt information storage unit) 204, a time providing unit 205, an imaging unit 206, and a video signal output unit 207.

パンチルト部203は、撮像部206をモータ駆動によってパン方向(左右方向)、チルト方向(上下方向)に駆動させ、第1の撮像装置100が撮像する際の画角を変更可能な機構(パンチルト機構)として機能する。 The pan-tilt unit 203 drives the imaging unit 206 in the pan direction (left and right direction) and tilt direction (up and down direction) by motor drive, and functions as a mechanism (pan-tilt mechanism) that can change the angle of view when the first imaging device 100 captures images.

情報保持部204は、同期信号発信装置106からの電気信号によるタイミングを撮像部206からの通知によって検知し、パンチルト部203からパンチルト情報を取得し、カメラ側の時間提供部205からパンチルト情報取得時間(第1の時間)を取得する。ここで、パンチルト情報は、パンチルト部203(または撮像部206)の現在の画角であるパンチルト情報の情報を含むパンチルト部203の状態情報である。また、パンチルト情報取得時間はパンチルト情報を取得したタイミングにおける時間である。情報保持部204は、パンチルト情報及びパンチルト情報取得時間をそれぞれ保持する。また、情報保持部204は、取得したパンチルト情報とパンチルト情報取得時間を保機内通信によって通信処理部202へ送信する。 The information holding unit 204 detects the timing of the electrical signal from the synchronization signal transmitter 106 through notification from the imaging unit 206, acquires pan-tilt information from the pan-tilt unit 203, and acquires the pan-tilt information acquisition time (first time) from the time providing unit 205 on the camera side. Here, the pan-tilt information is status information of the pan-tilt unit 203 including information on the pan-tilt information that is the current angle of view of the pan-tilt unit 203 (or the imaging unit 206). The pan-tilt information acquisition time is the time at the timing when the pan-tilt information is acquired. The information holding unit 204 holds the pan-tilt information and the pan-tilt information acquisition time. The information holding unit 204 also transmits the acquired pan-tilt information and pan-tilt information acquisition time to the communication processing unit 202 through in-device communication.

時間提供部205は、後述するネットワーク(通信処理部202)側の時間提供部209と同期をとり同一の基準となる時刻(同期した時間)を提供可能とするカメラ(撮像処理部201)側の時間提供部である。時間提供部205は、上記のように情報保持部204に対しパンチルト情報取得時間を送信する。 The time providing unit 205 is a time providing unit on the camera (imaging processing unit 201) side that is capable of providing the same reference time (synchronized time) by synchronizing with the time providing unit 209 on the network (communication processing unit 202) side, which will be described later. The time providing unit 205 transmits the pan/tilt information acquisition time to the information holding unit 204 as described above.

撮像部206は、撮像素子から得られたセンサ情報を画像処理し画像として出力する。また、撮像部206は同期信号発信装置106から電気的な信号(同期信号)を受信し、受信タイミングに合わせて撮像を開始する。撮像部206は、同期信号発信装置106から出力されるタイミングで撮像処理(画像処理)を行い、フレーム時間の幅の中で、同じタイミングで撮像した映像310を生成する。また、第1の撮像装置100に加え第2の撮像装置105にも同様の電気的な信号を受信し、信号に合わせて撮像を行うことで、第2の撮像装置105と同じタイミングでの撮像や、撮像した各画像に基づいた映像である映像310の生成を可能とする。 The imaging unit 206 processes the sensor information obtained from the imaging element and outputs it as an image. The imaging unit 206 also receives an electrical signal (synchronization signal) from the synchronization signal transmission device 106 and starts imaging in accordance with the reception timing. The imaging unit 206 performs imaging processing (image processing) at the timing output from the synchronization signal transmission device 106, and generates an image 310 captured at the same timing within the width of the frame time. Also, by receiving a similar electrical signal from the second imaging device 105 in addition to the first imaging device 100 and performing imaging in accordance with the signal, it is possible to capture images at the same timing as the second imaging device 105 and generate an image 310 that is an image based on each captured image.

映像信号出力部207は、撮像部206で生成された映像310を映像信号に変換し、映像信号に変換した映像310を情報処理装置102に出力する。尚、映像信号出力部207は、同期信号発信装置106が出力する信号に合わせて(同期して)映像信号に変換した映像310を情報処理装置102に出力する。 The video signal output unit 207 converts the video 310 generated by the imaging unit 206 into a video signal, and outputs the video 310 converted into a video signal to the information processing device 102. The video signal output unit 207 outputs the video 310 converted into a video signal to the information processing device 102 in accordance with (in synchronization with) the signal output by the synchronization signal transmission device 106.

次に、通信処理部202の構成について述べる。通信処理部202は、パケット生成部208、時間提供部209、時間付加部(パンチルト時間付加部)210、通信部211を含むように構成される。 Next, the configuration of the communication processing unit 202 will be described. The communication processing unit 202 is configured to include a packet generation unit 208, a time provision unit 209, a time addition unit (pan/tilt time addition unit) 210, and a communication unit 211.

パケット生成部208は、情報保持部204からパンチルト情報を受け取った後、ネットワーク103を介して情報処理装置102が受信することが可能なパケット形式へ当該パンチルト情報を変換(データを成形)してパケットを生成する。この時、パンチルト情報に付加されているパンチルト情報取得時間はパケットに含まず、即ちパケット形式に変換せずに時間付加部210へと送信する。 After receiving the pan-tilt information from the information storage unit 204, the packet generation unit 208 converts the pan-tilt information (shapes the data) into a packet format that can be received by the information processing device 102 via the network 103 to generate a packet. At this time, the pan-tilt information acquisition time added to the pan-tilt information is not included in the packet, i.e., it is sent to the time addition unit 210 without being converted into a packet format.

時間提供部209は、カメラ側の時間提供部205と同期をとり同一の基準となる時刻を提供可能とするネットワーク(通信処理部202)側の時間提供部である。実施形態1ではネットワーク側の時間提供部209とカメラ側の時間提供部205とでそれぞれ時間経過を更新する仕組みを持つ。例えば、時間提供部205は、共有メモリを保持しそれぞれの時間を定期的に照会し、ずれが発生した場合は、時間提供部209に合わせて同期することで、時間のずれを抑える仕組みによって時間同期をとる。 The time providing unit 209 is a time providing unit on the network (communication processing unit 202) side that is capable of providing the same reference time by synchronizing with the time providing unit 205 on the camera side. In the first embodiment, the time providing unit 209 on the network side and the time providing unit 205 on the camera side each have a mechanism for updating the passage of time. For example, the time providing unit 205 holds a shared memory and periodically checks the respective times, and if a discrepancy occurs, it synchronizes with the time providing unit 209 to achieve time synchronization using a mechanism that suppresses the time discrepancy.

時間付加部210は、通信部211からパケットが出力される直前に時間提供部209からパケット送付時間(第2の時間)を取得する。そして、当該パケット送付時間とパケット生成部208から送信されるパンチルト情報取得時間とに基づき、パケット送付時間とパンチルト情報取得時間の差分を差分時間401として算出し、差分時間401をパンチルト情報に付加(パケットに付加)する。時間付加部210は、差分時間401をパケットに付加した後、差分時間を付加したパンチルト情報のパケットについて通信部211を介して情報処理装置102へと送信する。実施形態1では、パンチルト情報は、FreeDプロトコルに順守した形でパケットとして成形され情報処理装置102へ送信される。 The time addition unit 210 acquires the packet sending time (second time) from the time provision unit 209 immediately before the packet is output from the communication unit 211. Then, based on the packet sending time and the pan/tilt information acquisition time transmitted from the packet generation unit 208, the time addition unit 210 calculates the difference between the packet sending time and the pan/tilt information acquisition time as the differential time 401, and adds the differential time 401 to the pan/tilt information (adds it to the packet). After adding the differential time 401 to the packet, the time addition unit 210 transmits the packet of pan/tilt information to which the differential time has been added to the information processing device 102 via the communication unit 211. In the first embodiment, the pan/tilt information is formed into a packet in compliance with the FreeD protocol and transmitted to the information processing device 102.

通信部211は、撮像装置側の通信部であり、ネットワーク103を介して、第2の撮像装置105や情報処理装置102と各種データの送受信を行う。通信部211は、データの送信として例えば、差分時間410を付加したパンチルト情報のパケットを情報処理装置102に送信する。 The communication unit 211 is a communication unit on the imaging device side, and transmits and receives various data to and from the second imaging device 105 and the information processing device 102 via the network 103. For example, the communication unit 211 transmits a packet of pan-tilt information to which the difference time 410 has been added to the information processing device 102 as data transmission.

次に、第2の撮像装置105について述べる。第2の撮像装置105は、第1の撮像装置100と同様の構成、即ち、同様のソフトウェアやハードウェアの構成を有する。また、第2の撮像装置105が取得する差分時間401は、第1の撮像装置100と同様または1フレーム以内の時間であることを想定する。第2の撮像装置105は、上記した第1の撮像装置100と同様に、映像信号に変換した映像310、差分時間401を付加したパンチルト情報のパケットを情報処理装置102へ送信する。 Next, the second imaging device 105 will be described. The second imaging device 105 has the same configuration as the first imaging device 100, i.e., the same software and hardware configuration. It is also assumed that the difference time 401 acquired by the second imaging device 105 is the same as that of the first imaging device 100 or is a time within one frame. The second imaging device 105 transmits the image 310 converted into a video signal and a packet of pan-tilt information to which the difference time 401 has been added, to the information processing device 102, in the same way as the first imaging device 100 described above.

次に、情報処理装置102について述べる。情報処理装置102は、回線を介して第1の撮像装置100、第2の撮像装置105から映像信号を取得する。さらに、ネットワーク103を介して、第1の撮像装置100、第2の撮像装置105から差分時間が付加されたパンチルト情報を取得する。実施形態1における情報処理装置102は、3次元グラフィックを生成し、第1の撮像装置100や第2の撮像装置105から送られた映像310と3次元グラフィックを合成するコンテンツを生成する。 Next, the information processing device 102 will be described. The information processing device 102 acquires video signals from the first imaging device 100 and the second imaging device 105 via a line. Furthermore, it acquires pan-tilt information with added differential time from the first imaging device 100 and the second imaging device 105 via a network 103. The information processing device 102 in the first embodiment generates three-dimensional graphics and generates content that combines the video 310 sent from the first imaging device 100 or the second imaging device 105 with the three-dimensional graphics.

3次元グラフィック映像を生成する際、3次元グラフィックの座標系内の撮像装置として映像310と合成するため、ネットワーク103から受信したパンチルト情報からバーチャル空間内に撮像装置が存在すると仮定してレンダリングを行う。この際、同一画角になるように画角を計算してレンダリングを行う。そして、レンダリングした映像(3次元グラフィック映像)を受信した映像310と合成することで映像310と3次元グラフィックスで生成した画角を合成した映像を生成する。 When generating a three-dimensional graphic image, rendering is performed on the assumption that an imaging device exists in the virtual space based on the pan-tilt information received from the network 103, in order to composite it with the image 310 as an imaging device in the three-dimensional graphic coordinate system. At this time, rendering is performed by calculating the angle of view so that the angle of view is the same. Then, the rendered image (three-dimensional graphic image) is composited with the received image 310 to generate an image that combines the image 310 with the angle of view generated by the three-dimensional graphics.

実施形態1における情報処理装置102は、通信部212、パンチルト情報描画部213、3次元グラフィック生成部214、映像保持部215、描画合成部216を含むように構成される。 The information processing device 102 in the first embodiment is configured to include a communication unit 212, a pan-tilt information drawing unit 213, a three-dimensional graphics generating unit 214, an image storage unit 215, and a drawing synthesis unit 216.

通信部212は、情報処理装置102側の通信部であり、ネットワーク103を介して第1の撮像装置100や第2の撮像装置105と各種データの送受信を行う。通信部212は、第1の撮像装置100と第2の撮像装置105からパケットに変換されたパンチルト情報を受信した場合、受信したパンチルト情報をパンチルト情報描画部213へと送信する。 The communication unit 212 is a communication unit on the information processing device 102 side, and transmits and receives various data to and from the first imaging device 100 and the second imaging device 105 via the network 103. When the communication unit 212 receives pan-tilt information converted into packets from the first imaging device 100 and the second imaging device 105, it transmits the received pan-tilt information to the pan-tilt information drawing unit 213.

パンチルト情報描画部213は、後述する3次元グラフィック生成部214が生成した3次元グラフィックのデータに対して描画を変化させ、3次元グラフィック映像を生成する。具体的には、通信部212から送信された第1の撮像装置100、第2の撮像装置105におけるパンチルト情報に基づき、3次元グラフィックにおけるカメラの画角を決定する。そして、3次元グラフィックのデータに対してレンダリングを行い、3次元グラフィック映像を生成する。 The pan/tilt information drawing unit 213 changes the drawing of the three-dimensional graphic data generated by the three-dimensional graphic generation unit 214 described below, and generates a three-dimensional graphic image. Specifically, it determines the camera angle of view for the three-dimensional graphic based on the pan/tilt information of the first imaging device 100 and the second imaging device 105 transmitted from the communication unit 212. Then, it performs rendering on the three-dimensional graphic data, and generates a three-dimensional graphic image.

3次元グラフィック生成部214は、第1の撮像装置100、第2の撮像装置105から取得した映像310と合成するための3次元グラフィックのデータを生成する。3次元グラフィックのデータを生成後は、パンチルト情報描画部213へ送信する。尚、実施形態1では、3次元グラフィック生成部214ではレンダリングは行わず、上記したようにパンチルト情報描画部213がレンダリングを行う。また、パンチルト情報に基づく3次元グラフィックにおけるカメラの画角を、パンチルト情報描画部213で計算し、3次元グラフィック生成部214で描画を行ってもよい。 The three-dimensional graphics generation unit 214 generates three-dimensional graphics data to be combined with the video 310 acquired from the first imaging device 100 and the second imaging device 105. After the three-dimensional graphics data is generated, it is sent to the pan-tilt information drawing unit 213. Note that in the first embodiment, the three-dimensional graphics generation unit 214 does not perform rendering, but the pan-tilt information drawing unit 213 performs rendering as described above. Also, the pan-tilt information drawing unit 213 may calculate the camera angle of view in the three-dimensional graphics based on the pan-tilt information, and the three-dimensional graphics generation unit 214 may perform drawing.

映像保持部215は、第1の撮像装置100、第2の撮像装置105から送信される映像310をある一定時間保持し、描画合成部216に対して指定された時間の映像310を提供する。 The image holding unit 215 holds the image 310 transmitted from the first imaging device 100 and the second imaging device 105 for a certain period of time, and provides the image 310 for a specified period of time to the drawing synthesis unit 216.

描画合成部216は、パンチルト情報描画部213で生成し、決定された画角でレンダリングされた3次元グラフィック映像と、映像保持部215で保持されている映像310を合成し、合成映像を生成(作成)する。合成する際に、パンチルト情報描画部213から、描画に使用したパンチルト情報に対応する差分時間401を受け取り、差分時間401以前の映像310を映像保持部215から取得して合成をする。差分時間401におけるパンチルト情報と映像における差分を合成する際に補正することによってパンチルト情報に対応したパンチルト動作を行っている際の映像310を取得し合成できる。これにより、生成された3次元グラフィック映像と映像310との差異を補正することが可能となり、停止している映像と比べても違和感のない合成映像を取得することができる。 The drawing synthesis unit 216 synthesizes the three-dimensional graphic image generated by the pan/tilt information drawing unit 213 and rendered at the determined angle of view with the image 310 stored in the image storage unit 215 to generate (create) a synthetic image. When synthesizing, it receives the difference time 401 corresponding to the pan/tilt information used for drawing from the pan/tilt information drawing unit 213, and obtains the image 310 before the difference time 401 from the image storage unit 215 and synthesizes it. By correcting the difference between the pan/tilt information and the image in the difference time 401 when synthesizing, it is possible to obtain and synthesize the image 310 during the pan/tilt operation corresponding to the pan/tilt information. This makes it possible to correct the difference between the generated three-dimensional graphic image and the image 310, and it is possible to obtain a synthetic image that does not look unnatural even when compared to a stationary image.

図3は、パンチルト情報と映像の差分の情報が無い場合における制御の時間相関を示した図である。図3では、パンチルト情報と映像の差分時間401が発生し、映像とパンチルト情報のパンチルト状態が映像310と差異が発生する様子を時間経過によって示している。図4は、パンチルト情報と映像の差分の情報による情報処理装置での制御の時間相関を示した図である。図4では、差分時間401を送信することによって映像とパンチルト情報が同期をとり差異が補正される様子を時間経過によって示している。以下では、まず図3について説明する。 Figure 3 is a diagram showing the time correlation of control when there is no information on the difference between pan/tilt information and the image. In Figure 3, a difference time 401 between the pan/tilt information and the image occurs, and the state in which a difference occurs between the pan/tilt state of the image and the pan/tilt information and the image 310 over time is shown. Figure 4 is a diagram showing the time correlation of control in an information processing device based on the pan/tilt information and the information on the difference between the image. In Figure 4, the state in which the image and the pan/tilt information are synchronized and the difference is corrected over time by transmitting the difference time 401 is shown. Below, Figure 3 will first be described.

図3に示す横軸は時間軸を示しており、第1の撮像装置100と情報処理装置102におけるデータ流れを示している。nは、任意のフレーム番号を示しており、図3ではn+12までの映像310が出力されたことを示している。映像信号の経路308で示されている映像処理時間301は、撮像部206で画像処理された映像310が映像信号出力部207から出力されるまでの時間を示している。パンチルト情報の経路309は、nからn+11までのパンチルト情報が生成されるまでの時間を示しており、3フレーム分のパンチルト情報が並列に生成される。パンチルト情報が生成されるまでの時間は、パンチルト取得時間302、機内通信時間303、パケット生成時間304、パケット出力時間305の合計で示されている。 The horizontal axis in FIG. 3 indicates the time axis, and shows the data flow in the first imaging device 100 and the information processing device 102. n indicates an arbitrary frame number, and in FIG. 3, it indicates that images 310 up to n+12 have been output. The image processing time 301 indicated by the image signal path 308 indicates the time until the image 310 processed by the imaging unit 206 is output from the image signal output unit 207. The pan/tilt information path 309 indicates the time until the pan/tilt information from n to n+11 is generated, and the pan/tilt information for three frames is generated in parallel. The time until the pan/tilt information is generated is indicated by the sum of the pan/tilt acquisition time 302, the in-flight communication time 303, the packet generation time 304, and the packet output time 305.

パンチルト取得時間302は、パンチルト情報が生成されるまでの時間と、情報保持部204がパンチルト部203から情報を取得しパンチルト情報を生成し、パケット生成部208まで送信するまでの時間を示している。機内通信時間303は、撮像処理部201の情報保持部204から通信処理部202のパケット生成部208までパンチルト情報が通信される時間を示している。パケット生成時間304は、パケット生成部208がパンチルト情報からパケットを生成し、時間付加部210が差分時間401を付加するまでの時間を示している。パケット出力時間305は、差分時間401を付加したパケットを出力するまでの時間を示している。 Pan/tilt acquisition time 302 indicates the time until pan/tilt information is generated and the time until the information storage unit 204 acquires information from the pan/tilt unit 203, generates pan/tilt information, and transmits it to the packet generation unit 208. In-flight communication time 303 indicates the time until the pan/tilt information is communicated from the information storage unit 204 of the imaging processing unit 201 to the packet generation unit 208 of the communication processing unit 202. Packet generation time 304 indicates the time until the packet generation unit 208 generates a packet from the pan/tilt information and the time addition unit 210 adds the difference time 401. Packet output time 305 indicates the time until the packet to which the difference time 401 is added is output.

図3では、差分時間401を付加しないこれまでの方法でパケットを生成した場合、機内通信時間303はSPIやPCIeといった、機内通信の種類や頻度などによって時間のかかり方が変わってくる。尚、実施形態1では速度が遅い通信形式によって通信していることを想定しているため、通信に時間がかかっていると想定している。また、パケット生成時間304、パケット出力時間305は、通信処理部202の定常的な処理負荷や優先順位などによって異なるが、実施形態1では、生成や出力に時間がかかっている場合を想定している。 In FIG. 3, when a packet is generated using a conventional method that does not add differential time 401, the in-flight communication time 303 varies depending on the type and frequency of in-flight communication, such as SPI or PCIe. Note that in the first embodiment, it is assumed that communication takes time because it is assumed that communication is performed using a slow communication format. Also, the packet generation time 304 and packet output time 305 vary depending on the steady-state processing load and priority of the communication processing unit 202, but in the first embodiment, it is assumed that generation and output take time.

情報処理装置102では、映像310とパンチルト情報を受け取り、合成するまでの時間を示している。映像310は、情報保持部204が映像信号出力部207から出力された映像310を保持するまでの時間を示している。パンチルト情報描画部213の時間311は、情報処理装置102がパンチルト情報を取得してから、パンチルト情報描画部213で3次元グラフィックを用いて描画を行うまでの時間を示している。描画合成部216の時間312は、描画合成部216がパンチルト情報描画部213で描画された3次元グラフィック映像と、映像保持部215で保持された映像310を合成する時間と、合成されたフレーム番号をnからn+11で示している。 In the information processing device 102, it shows the time from receiving the image 310 and pan/tilt information to synthesizing them. Image 310 shows the time from when the information holding unit 204 holds the image 310 output from the video signal output unit 207. Time 311 in the pan/tilt information drawing unit 213 shows the time from when the information processing device 102 acquires the pan/tilt information to when the pan/tilt information drawing unit 213 performs drawing using 3D graphics. Time 312 in the drawing synthesis unit 216 shows the time when the drawing synthesis unit 216 synthesizes the 3D graphic image drawn by the pan/tilt information drawing unit 213 with the image 310 held in the image holding unit 215, and the synthesized frame numbers from n to n+11.

ここで、差分時間401が送信されず、直前に取得したパンチルト情報と映像310から合成画像を生成する場合を想定する。この時、現在取得している情報から描画された映像と映像保持部215で保持されている映像とが計算されずにそれぞれ通知された場合、映像保持部215で保持されている映像310と合成すればよいかわからない状態になってしまう。例えば、受け取っている最新の映像310とパンチルト情報に基づき合成すると、パンチルト情報は2フレームのずれをもって受け取るため、生成される映像は2フレーム分の差異が発生するものとなる。こうした映像ではパンチルトの停止の直前直後など急激な変化が映像に発生した場合、パンチルト情報描画部213で描画された映像と、映像保持部215で保持された映像310に差異が発生してしまう。従って、このような差異を発生させないためには、情報処理装置102のパンチルト情報描画部213で描画された3次元グラフィック映像と映像保持部215で保持された映像310に基づき、差分時間401を計測して映像をずらす作業が必要となる。 Here, assume that the difference time 401 is not transmitted and a composite image is generated from the pan/tilt information and image 310 acquired immediately before. At this time, if the image drawn from the currently acquired information and the image held in the image holding unit 215 are notified without being calculated, it becomes unclear which image should be combined with the image 310 held in the image holding unit 215. For example, if the image is combined based on the latest image 310 received and the pan/tilt information, the pan/tilt information is received with a shift of two frames, so the generated image will have a difference of two frames. In such an image, if a sudden change occurs in the image, such as immediately before or after the pan/tilt stops, a difference will occur between the image drawn by the pan/tilt information drawing unit 213 and the image 310 held in the image holding unit 215. Therefore, in order to prevent such a difference from occurring, it is necessary to measure the difference time 401 and shift the image based on the three-dimensional graphic image drawn by the pan/tilt information drawing unit 213 of the information processing device 102 and the image 310 held in the image holding unit 215.

図4は、実施形態1における提案手法に基づいて差分時間401を時間付加部210に付加してパケットを出力する場合の時間関係を示している。映像信号の経路308、映像310、パンチルト情報描画部の時間311については、図3で示した内容と同様であるため説明を省略する。 Figure 4 shows the time relationship when a differential time 401 is added to the time adding unit 210 based on the method proposed in the first embodiment and a packet is output. The video signal path 308, video 310, and time 311 of the pan/tilt information drawing unit are the same as those shown in Figure 3, so the explanation is omitted.

また、図4では、パンチルト情報の経路309で差分時間401をパケットに追加して送付している。このため描画合成部216の時間312において描画合成部216が差分時間401を取得し、映像保持部215に保持されている映像310のうち、どのフレーム映像がパンチルト情報と対応しているかを判断可能となる。 In addition, in FIG. 4, the difference time 401 is added to the packet and sent via the pan/tilt information path 309. Therefore, at time 312 in the drawing synthesis unit 216, the drawing synthesis unit 216 acquires the difference time 401, and it becomes possible to determine which frame image of the image 310 stored in the image storage unit 215 corresponds to the pan/tilt information.

実施形態1では、2フレームの時間を遅延させた映像310とパンチルト情報に基づいてレンダリングされた映像を合成することで、パンチルト情報に基づいた3次元グラフィック映像と対応したパンチルトをしている映像310と合成が可能となっている。差分時間401は、フレーム番号といった時間差分を計算可能なものであれば厳密な時間でなくてもよい。 In the first embodiment, by synthesizing the image 310 delayed by two frames with the image rendered based on the pan-tilt information, it is possible to synthesize the image 310 with the corresponding pan-tilt and the three-dimensional graphic image based on the pan-tilt information. The difference time 401 does not have to be an exact time as long as the time difference can be calculated using something such as a frame number.

しかしながら実施形態1では、時間を送付することで映像信号が様々なパターンで送信される場合に対応することができる。例えば、撮像部206では同期信号発信装置106で同期され出力されているが、映像信号出力部207で周波数を間引きし出力する場合などにも、時間を送信することで映像とパンチルト情報を同期させることが可能である。尚、実施形態1においては、第2の撮像装置105も同様のハード構成やソフトウェア構成であるため、差分時間401が第1の撮像装置100の差分時間401とほぼ同等となり、大きくずれることはない。 However, in the first embodiment, by sending the time, it is possible to handle cases where the video signal is transmitted in various patterns. For example, in the imaging unit 206, the video is synchronized and output by the synchronization signal transmission device 106, but even in cases where the video signal output unit 207 thins out the frequency and outputs it, it is possible to synchronize the video and pan/tilt information by sending the time. Note that in the first embodiment, since the second imaging device 105 also has the same hardware and software configuration, the difference time 401 is almost equal to the difference time 401 of the first imaging device 100 and does not deviate significantly.

こうした差分時間401がほぼ同等の撮像装置間での同期は、映像をいずれの撮像装置向けにも同様に遅延させて合成すればよいため、いずれかの撮像装置のパンチルト情報、映像を同期させ、合成映像を作ることが可能となる。また、実施形態1において、差分時間401は1フレームの時間よりも大きな時間(所定の時間以上)である場合を想定している。1フレームの時間よりも小さな時間である場合は、差分時間401分映像を遅延させて合成する必要は必ずしもない。従って、実施形態1の第1の撮像装置100では、差分時間401が1フレームよりも小さい場合は、差分時間401をパケットに付加して情報処理装置102に送らないことが好ましい。また、実施形態1の情報処理装置102では差分時間401が撮像装置から送られてこない場合、または差分時間401が送られてきたが1フレームよりも小さい場合は、上記の同期処理を行わない。 Synchronization between imaging devices with approximately the same differential time 401 can be achieved by delaying the images for both imaging devices in the same way and synthesizing them, so that the pan/tilt information and images of either imaging device can be synchronized to create a composite image. In addition, in the first embodiment, it is assumed that the differential time 401 is a time greater than the time of one frame (a predetermined time or more). If it is a time less than the time of one frame, it is not necessarily necessary to delay the images by the differential time 401 to synthesize them. Therefore, in the first imaging device 100 of the first embodiment, if the differential time 401 is less than one frame, it is preferable not to add the differential time 401 to a packet and send it to the information processing device 102. In addition, in the information processing device 102 of the first embodiment, if the differential time 401 is not sent from the imaging device, or if the differential time 401 is sent but is less than one frame, the above synchronization process is not performed.

図5、図6、図7は、実施形態1に係る差分時間410に基づくパンチルト情報と映像310の同期フローを示した図である。 Figures 5, 6, and 7 show the flow of synchronizing the pan-tilt information and the image 310 based on the difference time 410 in embodiment 1.

図5は、実施形態1に係る撮像処理部201における処理フローを示す図である。図6は、実施形態1に係る通信処理部202における処理フローを示す図である。図7は、実施形態1に係る情報処理装置102における処理フローを示す図である。尚、図5、図6の各処理(各動作)は、第1の撮像装置100におけるCPUが第1の撮像装置100、情報処理装置102それぞれのROMに格納されたコンピュータプログラムを実行することによって制御される。また、図7の各処理(各動作)は、情報処理装置102におけるCPUがROMに格納されたコンピュータプログラムを実行することによって制御される。また、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。また、以下の処理に示す撮像装置は第1の撮像装置100として説明するが、第2の撮像装置105でも同様である。 Figure 5 is a diagram showing a processing flow in the imaging processing unit 201 according to the first embodiment. Figure 6 is a diagram showing a processing flow in the communication processing unit 202 according to the first embodiment. Figure 7 is a diagram showing a processing flow in the information processing device 102 according to the first embodiment. Note that each process (each operation) in Figures 5 and 6 is controlled by the CPU in the first imaging device 100 executing a computer program stored in the ROM of each of the first imaging device 100 and the information processing device 102. Also, each process (each operation) in Figure 7 is controlled by the CPU in the information processing device 102 executing a computer program stored in the ROM. Also, by adding an S to the beginning of each process (step), the notation of the process (step) is omitted. Also, the imaging device shown in the following process will be described as the first imaging device 100, but the same applies to the second imaging device 105.

ここで、図5に示す撮像処理部201の処理フローは、映像信号に変換した映像310の出力とパンチルト情報をパケット生成部208に出力するまでの処理を述べている。そして、図5に示す処理全体は周期的に行われている。 The processing flow of the imaging processing unit 201 shown in FIG. 5 describes the process up to outputting the image 310 converted into a video signal and outputting the pan/tilt information to the packet generating unit 208. The entire process shown in FIG. 5 is performed periodically.

まず、S1001では、毎周期(所定の周期)でカメラ側の時間提供部205が通信処理部202と時間同期を行う。次に、S1002では、同期信号を受信したか否かを判定する。判定の結果、同期信号を受信した場合は、S1003とS1007に進む。一方、同期信号を受信していない場合は、S1001に戻り、同様の処理周期的に行う。 First, in S1001, the time providing unit 205 on the camera side performs time synchronization with the communication processing unit 202 every cycle (predetermined cycle). Next, in S1002, it is determined whether or not a synchronization signal has been received. If the result of the determination is that a synchronization signal has been received, the process proceeds to S1003 and S1007. On the other hand, if a synchronization signal has not been received, the process returns to S1001 and performs the same processing cycle.

次に、S1003では、撮像部206の撮像センサに対して撮像取得を指示する。次に、S1004では、撮像部206は、同期信号発信装置106から出力されるタイミングで画像処理を行い、フレーム時間の幅の中で、同じタイミングで撮像した映像310を生成する。次に、S1005では、映像信号出力部207は、撮像部206で画像処理された映像310を映像信号に変換した後、情報処理装置102に出力する。その後、S1001に戻り同様の処理を周期的に行う。 Next, in S1003, an instruction is issued to the imaging sensor of the imaging unit 206 to capture an image. Next, in S1004, the imaging unit 206 performs image processing at the timing output from the synchronization signal transmission device 106, and generates a video 310 captured at the same timing within the width of the frame time. Next, in S1005, the video signal output unit 207 converts the video 310 image-processed by the imaging unit 206 into a video signal, and then outputs it to the information processing device 102. After that, the process returns to S1001 and the same process is periodically performed.

次に、S1007では、情報保持部204は、パンチルト部203からパンチルト情報を取得し、カメラ側の時間提供部205からパンチルト情報取得時間を取得する。次に、S1008では、情報保持部204は、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208へ送信する。その後S1001に戻り同様の処理を周期的に行う。尚、S1003とS1007の処理を開始するタイミングは連動していることが好ましいが、S1003とS1007の処理を同時に開始することがより好ましい。 Next, in S1007, the information holding unit 204 acquires pan-tilt information from the pan-tilt unit 203, and acquires the pan-tilt information acquisition time from the time providing unit 205 on the camera side. Next, in S1008, the information holding unit 204 transmits the pan-tilt information and the pan-tilt information acquisition time to the packet generating unit 208 by in-flight communication. Thereafter, the process returns to S1001 and the same process is performed periodically. Note that it is preferable that the timing of starting the processes of S1003 and S1007 is linked, but it is more preferable that the processes of S1003 and S1007 are started simultaneously.

ここで、図6に示す通信処理部202の処理フローは、パンチルト情報を機内通信で撮像処理部201から受け取り、パケットとして出力するまでの処理を示している。そして、図6に示した撮像処理部201と同様に処理全体は周期的に行われている。 The processing flow of the communication processing unit 202 shown in FIG. 6 shows the process from receiving pan/tilt information from the imaging processing unit 201 via in-flight communication to outputting it as a packet. And, like the imaging processing unit 201 shown in FIG. 6, the entire process is performed periodically.

まず、S1009では、毎周期(所定の周期)でネットワーク側の時間提供部209が撮像処理部201と時間同期を行う。次に、S1010では、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信したか否かを判定する。判定の結果、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信した場合、S1011に進む。一方、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信していない場合、S1009に戻り同様の処理を周期的に行う。 First, in S1009, the time providing unit 209 on the network side synchronizes time with the imaging processing unit 201 every cycle (predetermined cycle). Next, in S1010, it is determined whether or not the packet generating unit 208 has received the pan-tilt information and the pan-tilt information acquisition time by in-flight communication. If the result of the determination is that the packet generating unit 208 has received the pan-tilt information and the pan-tilt information acquisition time by in-flight communication, the process proceeds to S1011. On the other hand, if the packet generating unit 208 has not received the pan-tilt information and the pan-tilt information acquisition time by in-flight communication, the process returns to S1009 and the same process is performed periodically.

次に、S1011では、パケット生成部208は、受信したパンチルト情報についてネットワーク103を介し、情報処理装置102が受信することが可能なパケット形式へ変換してパケットを生成する。この時に、パンチルト情報取得時間は、パンチルト情報が含まれる当該パケットには含まないようにして時間付加部210へと送信する。 Next, in S1011, the packet generating unit 208 converts the received pan-tilt information into a packet format that can be received by the information processing device 102 via the network 103, and generates a packet. At this time, the pan-tilt information acquisition time is not included in the packet that contains the pan-tilt information, and the packet is transmitted to the time adding unit 210.

次に、S1012では、時間付加部210は、ネットワーク側の時間提供部209からパケット送付時間を取得する。次に、S1013では、時間付加部210は、S1012で取得したパケット送付時間と、S1011でパケット生成部208から送信されたパンチルト情報取得時間とに基づき、差分時間401を算出する。 Next, in S1012, the time addition unit 210 acquires the packet sending time from the time provision unit 209 on the network side. Next, in S1013, the time addition unit 210 calculates the differential time 401 based on the packet sending time acquired in S1012 and the pan/tilt information acquisition time transmitted from the packet generation unit 208 in S1011.

次に、S1014では、S1013で算出した差分時間401が現在出力されている映像の1フレーム間の時間よりも大きいか否かを判定する。判定の結果、差分時間401が現在出力されている映像の1フレーム間の時間よりも大きい場合は、S1015に進む。一方、差分時間401が現在出力されている映像の1フレーム間の時間よりも小さい場合は、S1016に進む。 Next, in S1014, it is determined whether the difference time 401 calculated in S1013 is greater than the time between one frame of the video currently being output. If the result of the determination is that the difference time 401 is greater than the time between one frame of the video currently being output, the process proceeds to S1015. On the other hand, if the difference time 401 is less than the time between one frame of the video currently being output, the process proceeds to S1016.

次に、S1015では、時間付加部210は、差分時間401をパンチルト情報が付加されているパケットに付加する。次に、S1016では、時間付加部210は、差分時間を付加していないパケットを情報処理装置102に送信する。その後、S1009に戻り同様の処理を周期的に行う。 Next, in S1015, the time addition unit 210 adds the differential time 401 to the packet to which the pan/tilt information has been added. Next, in S1016, the time addition unit 210 transmits the packet to which the differential time has not been added to the information processing device 102. Thereafter, the process returns to S1009 and the same process is periodically performed.

ここで、図7に示す情報処理装置102の処理フローは、撮像処理部201から送信された映像310と通信処理部202から送信された差分時間401が付加されているパンチルト情報と、を用いて同期した合成映像を生成するまでの処理を示している。 Here, the processing flow of the information processing device 102 shown in FIG. 7 shows the process up to generating a synchronized composite image using the image 310 transmitted from the imaging processing unit 201 and the pan-tilt information to which the difference time 401 transmitted from the communication processing unit 202 is added.

まず、S1017では、情報処理装置102は、撮像処理部201の映像信号出力部207から映像310を受信する。次に、S1018では、S1017で受信した映像310を映像保持部215へ保持する。次に、S1019では、通信部212は、時間付加部210より送信されたパンチルト情報を受信する。その後、通信部212は、受信したパンチルト情報をパンチルト情報描画部213へと送信する。 First, in S1017, the information processing device 102 receives the image 310 from the image signal output unit 207 of the imaging processing unit 201. Next, in S1018, the image 310 received in S1017 is stored in the image storage unit 215. Next, in S1019, the communication unit 212 receives the pan-tilt information transmitted from the time addition unit 210. Thereafter, the communication unit 212 transmits the received pan-tilt information to the pan-tilt information drawing unit 213.

次に、S1020では、3次元グラフィック生成部214は、3次元グラフィックを生成し、生成した3次元グラフィックのデータをパンチルト情報描画部213に送信する。次に、S1021では、パンチルト情報描画部213は、通信部212から送信されたパンチルト情報を反映して3次元グラフィックのデータに対してレンダリングを行い、3次元グラフィック映像を生成する。 Next, in S1020, the three-dimensional graphic generation unit 214 generates a three-dimensional graphic and transmits the generated three-dimensional graphic data to the pan/tilt information drawing unit 213. Next, in S1021, the pan/tilt information drawing unit 213 performs rendering on the three-dimensional graphic data while reflecting the pan/tilt information transmitted from the communication unit 212, and generates a three-dimensional graphic image.

次に、S1022では、パンチルト情報に差分時間401が付加されているか否かを判定する。パンチルト情報に差分時間401が付加されている場合は、S1023に進む。一方、パンチルト情報に差分時間401が付加されていない場合は、S1025に進む。 Next, in S1022, it is determined whether or not the differential time 401 has been added to the pan-tilt information. If the differential time 401 has been added to the pan-tilt information, the process proceeds to S1023. On the other hand, if the differential time 401 has not been added to the pan-tilt information, the process proceeds to S1025.

次に、S1023では、描画合成部216は、パンチルト情報描画部213から描画に使用したパンチルト情報に対応する差分時間401を取得する。次に、S1024では、描画合成部216は、差分時間401分以前の映像、即ち、過去に遡った映像310を映像保持部215から選択する。次に、S1025では、パンチルト情報に差分時間401が付加されていないため、最新の映像310を選択する。 Next, in S1023, the drawing synthesis unit 216 acquires the difference time 401 corresponding to the pan/tilt information used for drawing from the pan/tilt information drawing unit 213. Next, in S1024, the drawing synthesis unit 216 selects the image from the image storage unit 215 that is older than the difference time 401, i.e., the image 310 that dates back in time. Next, in S1025, since the difference time 401 has not been added to the pan/tilt information, the latest image 310 is selected.

次に、S1026では、描画合成部216は、レンダリングされた3次元グラフィック映像と、選択された映像310とを合成して合成映像を生成する。次に、S1027では、S1026で合成映像を生成した段階で映像保持部215に保持されている過去の映像310は不要となるため、選択されたより過去の映像310を削除する。次に、S1028では、S1026で生成した合成映像を結果として外部装置等に出力する。尚、出力された合成映像は、例えばディスプレイ(表示部)104に任意の形式で表示してもよい。これによりユーザは、時間的な差異のない合成映像であって、合成した際に映像のパンチルト状況と同じパンチルト状況の合成映像を視認することができる。 Next, in S1026, the drawing synthesis unit 216 synthesizes the rendered three-dimensional graphic image and the selected image 310 to generate a synthetic image. Next, in S1027, since the past image 310 stored in the image storage unit 215 becomes unnecessary at the stage of generating the synthetic image in S1026, the selected older image 310 is deleted. Next, in S1028, the synthetic image generated in S1026 is output as a result to an external device or the like. Note that the output synthetic image may be displayed in any format, for example, on the display (display unit) 104. This allows the user to view a synthetic image that is free of temporal difference and has the same pan-tilt situation as the image when synthesized.

差分時間が同様の時間になる第1の撮像装置100と第2の撮像装置105では映像が同期信号発信装置106の信号によって同期しているため、同様の処理を情報処理装置102で行うことで、それぞれの映像とパンチルト情報を同期させることが可能となる。 Since the images of the first imaging device 100 and the second imaging device 105, whose difference times are the same, are synchronized by a signal from the synchronization signal transmitter 106, it is possible to synchronize the respective images and pan/tilt information by performing similar processing in the information processing device 102.

以上の処理によって同期信号発信装置106の信号によって同期をとっている各撮像装置の映像と、パケットによって出力されるパンチルト情報に基づいて生成される3次元グラフィックの映像とを同期させることができる。そして、当該映像と当該3次元グラフィックの映像とを合成することで、時間的な差異のなく、映像のパンチルト状況と同じパンチルト状況の合成映像を生成可能なシステムを提供することができる。 By performing the above process, it is possible to synchronize the images of each imaging device, which is synchronized by the signal from the synchronization signal transmitter 106, with the three-dimensional graphic image generated based on the pan-tilt information output by the packet. Then, by synthesizing the images with the three-dimensional graphic image, it is possible to provide a system that can generate a composite image with the same pan-tilt situation as the image, without any time difference.

<実施形態2>
次に、図8から図19を参照し、本発明の実施形態2のシステムについて説明する。実施形態2では、第1の撮像装置100と第2の撮像装置105といった各撮像装置間でパンチルト情報を共有することで、情報処理装置102が各撮像装置における差分時間401を考慮することなく、映像310とパンチルト情報との同期を行う。
<Embodiment 2>
Next, a system according to a second embodiment of the present invention will be described with reference to Fig. 8 to Fig. 19. In the second embodiment, pan-tilt information is shared between each imaging device, such as the first imaging device 100 and the second imaging device 105, so that the information processing device 102 synchronizes the image 310 with the pan-tilt information without considering the difference time 401 in each imaging device.

実施形態2では、実施形態1の場合と同様の構成要素については既に使用した符号を用いることで、それらの詳細な説明を省略する。そして、実施形態2では、撮像映像保持部801、パケット受信部802、遅延映像信号出力部803、及び実施形態1と異なる制御を行う第2の時間付加部(第2のパンチルト時間付加部)804を中心に説明する。 In the second embodiment, the same components as those in the first embodiment are designated by the same reference numerals already used, and detailed description thereof will be omitted. In the second embodiment, the description will focus on the captured image storage unit 801, the packet receiving unit 802, the delayed image signal output unit 803, and the second time addition unit (second pan/tilt time addition unit) 804, which performs control different from that in the first embodiment.

図8と図9は、実施形態2におけるシステム構成を示す図である。具体的には、図8は、差分時間が撮像装置間で差分(差異)があるシステム構成を示す図であり、図9は、差分時間を同期した撮像装置と情報処理装置のシステム構成を示す図である。図8では、実施形態1における図1の構成とは異なる第3の撮像装置601について、第1の撮像装置100、第2の撮像装置105との差分を示すことで説明を行う。 Figures 8 and 9 are diagrams showing the system configuration in the second embodiment. Specifically, Figure 8 is a diagram showing a system configuration in which there is a difference (difference) in the differential time between imaging devices, and Figure 9 is a diagram showing the system configuration of an imaging device and an information processing device in which the differential time is synchronized. In Figure 8, a third imaging device 601, which differs from the configuration in Figure 1 in the first embodiment, is explained by showing the differences with the first imaging device 100 and the second imaging device 105.

図8では、第1の撮像装置100における差分時間を第1の差分時間602、第2の撮像装置105における差分時間を第2の差分時間603、第3の撮像装置601における差分時間を第3の差分時間604として示している。尚、以下では図8と図9に示すシステムにおいて、各撮像装置の第1の差分時間602、第2の差分時間603、第3の差分時間604が大きく異なるものとして説明する。 In FIG. 8, the differential time in the first imaging device 100 is shown as the first differential time 602, the differential time in the second imaging device 105 is shown as the second differential time 603, and the differential time in the third imaging device 601 is shown as the third differential time 604. Note that in the following, in the systems shown in FIG. 8 and FIG. 9, the first differential time 602, the second differential time 603, and the third differential time 604 of each imaging device will be described as being significantly different.

情報処理装置102に接続される撮像装置の数が多く、またそれらの差分時間401が異なる場合、情報処理装置102で同期する対象が増える。この時、パンチルト情報の差分時間401を情報処理装置102が受け取り、映像310を一定時間遅延して合成することで個々の撮像装置のおける映像310とパンチルト情報は同期をとることは可能である。しかし、情報処理装置102に接続される撮像装置の数が多い程、各撮像装置間の映像310、パンチルト情報のすべてにおいて同期をとることが困難となる。 When there are a large number of imaging devices connected to the information processing device 102 and their differential times 401 are different, the number of objects to be synchronized in the information processing device 102 increases. In this case, the information processing device 102 receives the differential time 401 of the pan/tilt information, and by delaying the images 310 by a certain amount and synthesizing them, it is possible to synchronize the images 310 and pan/tilt information of each imaging device. However, the more imaging devices are connected to the information processing device 102, the more difficult it becomes to synchronize all of the images 310 and pan/tilt information between the imaging devices.

そこで本実施形態のシステムでは、複数の撮像装置の中から、差分時間の最も大きな撮像装置に合わせて、すべての撮像装置がパケットの出力と映像の出力を遅延させる。この時、各撮像装置は、算出した差分時間401をそのままパケットに付加せず、新たに実差分時間704として各撮像装置に自身の差分時間を送信し、各撮像装置間で実差分時間704を共有するように制御される。その後、各撮像装置は、受け取った実差分時間704の中で最も大きな実差分時間704をパンチルト情報も含まれているパケットに付加する差分時間401として決定する。そして、決定された実差分時間704を当該パケットに付加して情報処理装置102に送信する。 Therefore, in the system of this embodiment, all imaging devices delay the packet output and image output to match the imaging device with the largest differential time among the multiple imaging devices. At this time, each imaging device does not add the calculated differential time 401 to the packet as is, but transmits its own differential time to each imaging device as a new actual differential time 704, and is controlled so that the actual differential time 704 is shared between each imaging device. After that, each imaging device determines the largest actual differential time 704 among the received actual differential times 704 as the differential time 401 to be added to the packet that also contains pan/tilt information. Then, the determined actual differential time 704 is added to the packet and transmitted to the information processing device 102.

この時、実差分時間704は付加されたパケットを情報処理装置102に送信する際に、実差分時間704と、その撮像装置で計算した差分時間401との差分を計算し、当該差分の分パケットと映像310の出力を遅延させて情報処理装置102に送信する。そして、映像310は、最も大きな差分時間(最大差分時間)分遅らせて情報処理装置102に送信する。これにより情報処理装置102ではパンチルト情報と映像310とが同期した状態で得ることが可能となる。 At this time, when transmitting the packet to which the actual difference time 704 is added to the information processing device 102, the difference between the actual difference time 704 and the difference time 401 calculated by the imaging device is calculated, and the packet and the output of the image 310 are delayed by the difference and transmitted to the information processing device 102. The image 310 is then transmitted to the information processing device 102 with a delay of the largest difference time (maximum difference time). This makes it possible for the information processing device 102 to obtain pan/tilt information and the image 310 in a synchronized state.

図9では、第3の撮像装置601における第3の差分時間604が最も大きな差分時間である場合を示している。そして、第1の撮像装置100における第1の差分時間602がその次に大きな差分時間で、第2の撮像装置105における第2の差分時間603の順で差分時間が一番小さい差分時間である場合を示している。 Figure 9 shows a case where the third differential time 604 in the third imaging device 601 is the largest differential time. Then, the first differential time 602 in the first imaging device 100 is the next largest differential time, and the second differential time 603 in the second imaging device 105 is the smallest differential time.

この場合、第1の撮像装置100は、第1の差分時間602を実差分時間704として、第2の撮像装置105と第3の撮像装置601に送信する。第2の撮像装置105は、第2の差分時間603を実差分時間704として、第1の撮像装置100と第3の撮像装置601に送信する。第3の撮像装置601は、第3の差分時間604を実差分時間704として、第1の撮像装置100と第2の撮像装置105に送信する。これにより各撮像装置間で各撮像装置の実差分時間を共有することができる。 In this case, the first imaging device 100 transmits the first differential time 602 as the actual differential time 704 to the second imaging device 105 and the third imaging device 601. The second imaging device 105 transmits the second differential time 603 as the actual differential time 704 to the first imaging device 100 and the third imaging device 601. The third imaging device 601 transmits the third differential time 604 as the actual differential time 704 to the first imaging device 100 and the second imaging device 105. This allows the actual differential times of each imaging device to be shared between each imaging device.

その後、最も大きな差分時間である第3の撮像装置601の実差分時間704(第3の差分時間604)を、各撮像装置は情報処理装置102に送信するパケットに付加する。即ち、第1の撮像装置100は、第1の撮像装置におけるパケット701に実差分時間704を付加する。第2の撮像装置105は、第2の撮像装置におけるパケット702に実差分時間704を付加する。第3の撮像装置601は、第3の撮像装置におけるパケット703に実差分時間704を付加する。そして、それぞれのパケットを情報処理装置102に送信する際に、各撮像装置は実差分時間704と、その撮像装置で計算した差分時間との差分を計算し、当該差分の分、パケットと映像310の出力を遅延させて情報処理装置102に対しそれぞれ送信する。また、各撮像装置における映像310は、実差分時間704分遅らせて情報処理装置102に対しそれぞれ送信する。これにより、各撮像装置は映像310とパケットの出力を遅延させることができる。 Then, each imaging device adds the actual difference time 704 (third difference time 604) of the third imaging device 601, which is the largest difference time, to the packet to be transmitted to the information processing device 102. That is, the first imaging device 100 adds the actual difference time 704 to the packet 701 in the first imaging device. The second imaging device 105 adds the actual difference time 704 to the packet 702 in the second imaging device. The third imaging device 601 adds the actual difference time 704 to the packet 703 in the third imaging device. Then, when transmitting each packet to the information processing device 102, each imaging device calculates the difference between the actual difference time 704 and the difference time calculated by that imaging device, and delays the output of the packet and the video 310 by the difference and transmits them to the information processing device 102. Also, the video 310 in each imaging device is transmitted to the information processing device 102 with a delay of the actual difference time 704. This allows each imaging device to delay the output of the video 310 and packets.

図10は、実施形態2に係るシステムの機能ブロックを示す図である。具体的には、第1の撮像装置100及び第2の撮像装置105の機能ブロックの一例を示している。尚、図8に示す各撮像装置及び情報処理装置102の各機能は、実施形態1と同様にROMに格納されたコンピュータプログラムを第1の撮像装置100または第2の撮像装置105のCPUが実行することで実現される。 Fig. 10 is a diagram showing functional blocks of a system according to the second embodiment. Specifically, an example of functional blocks of the first imaging device 100 and the second imaging device 105 is shown. Note that, as in the first embodiment, the functions of each imaging device and the information processing device 102 shown in Fig. 8 are realized by the CPU of the first imaging device 100 or the second imaging device 105 executing a computer program stored in a ROM.

パケット受信部802は、撮像装置側の通信部211から他の撮像装置の実差分時間704を受け取り、第2の時間付加部804から自身の実差分時間である差分時間401を受け取る。そして、他の撮像装置から取得した実差分時間704と差分時間401とを比較する。パケット受信部802は、比較の結果、最も大きな差分時間を第2の時間付加部804と撮像映像保持部801に送信する。 The packet receiving unit 802 receives the actual difference time 704 of the other imaging device from the communication unit 211 on the imaging device side, and receives the difference time 401, which is its own actual difference time, from the second time adding unit 804. Then, the packet receiving unit 802 compares the actual difference time 704 acquired from the other imaging device with the difference time 401. As a result of the comparison, the packet receiving unit 802 transmits the largest difference time to the second time adding unit 804 and the captured image holding unit 801.

第2の時間付加部804は、パケットに付加する差分時間として、パケット受信部802から送信された最も大きな差分時間をパケットに付加し、パケットを送信する。また、パケットを送信する際に、最も大きな差分時間と自身の差分時間401の差分を計算し、算出した差分分遅延させてパケットを出力する。第2の時間付加部804は、遅延させるため、複数回分のパンチルト情報を保持し適切な時間のパンチルト情報を選択してパケットとして送信する。 The second time adding unit 804 adds the largest differential time transmitted from the packet receiving unit 802 to the packet as the differential time to be added to the packet, and transmits the packet. When transmitting the packet, the second time adding unit 804 calculates the difference between the largest differential time and its own differential time 401, and outputs the packet with a delay of the calculated difference. In order to delay the packet, the second time adding unit 804 holds pan-tilt information for multiple times, selects pan-tilt information of an appropriate time, and transmits the selected information as a packet.

撮像部206の制御は実施形態1と同様であるが、映像310は映像信号出力部207ではなく撮像映像保持部801へ送信する。撮像映像保持部801は、パケット受信部802から最も大きな差分時間を受け取り、最も大きな差分時間分遅らせた映像310を遅延映像信号出力部803へ送信する。遅延映像信号出力部803は、撮像映像保持部801から送信された最も大きな差分時間分遅らせた映像を映像信号へと変換して情報処理装置102に出力する。 The control of the imaging unit 206 is the same as in the first embodiment, but the image 310 is transmitted to the captured image holding unit 801 instead of the image signal output unit 207. The captured image holding unit 801 receives the largest difference time from the packet receiving unit 802, and transmits the image 310 delayed by the largest difference time to the delayed image signal output unit 803. The delayed image signal output unit 803 converts the image delayed by the largest difference time transmitted from the captured image holding unit 801 into a video signal and outputs it to the information processing device 102.

例えば、2台以上ある第2の撮像装置105、第3の撮像装置601も同様の構成を保持することで、最も大きな差分時間に同期した映像310とパンチルト情報を情報処理装置102へ送信することが可能となる。尚、図8では例示として、第1の撮像装置100と第2の撮像装置105の構成を図示しているが、第3の撮像装置601、またそれ以外の同様の構成を保持する異なる撮像装置でも同様に同期をとることが可能となる。 For example, if two or more second imaging devices 105 and third imaging devices 601 also have the same configuration, it becomes possible to transmit the image 310 and pan/tilt information synchronized with the largest difference time to the information processing device 102. Note that while FIG. 8 shows the configurations of the first imaging device 100 and second imaging device 105 as an example, similar synchronization can also be achieved with the third imaging device 601 and other different imaging devices having the same configuration.

図11、図12、図13は、図8に示す各撮像装置が異なる差分時間401によって動作し、実施形態1で説明した同期処理を行った場合を示している図である。図14は、差分時間に差がある場合の情報処理装置での制御の時間相関を示した図である。図11、図12、図13では、第3の撮像装置601の第3の差分時間604が、第1の撮像装置100の第1の差分時間602よりも1フレーム以上時間が長い状態を示している。 Figures 11, 12, and 13 show a case where each imaging device shown in Figure 8 operates with a different differential time 401 and performs the synchronization process described in embodiment 1. Figure 14 shows the time correlation of control in an information processing device when there is a difference in differential time. Figures 11, 12, and 13 show a state where the third differential time 604 of the third imaging device 601 is longer than the first differential time 602 of the first imaging device 100 by one frame or more.

さらに、第2の撮像装置105の第2の差分時間603が第1の撮像装置100の第1の差分時間602よりも1フレーム以上時間が短い状態を示している。この場合において、各撮像装置の各差分時間を保持して情報処理装置102でそれぞれ同期処理を行うことを想定する。この時、情報処理装置102で生成される第1の撮像装置100の合成映像901、第2の撮像装置105の合成映像902、第3の撮像装置601の合成映像903のフレーム番号はそれぞれ1フレーム以上ずれてしまう。これにより、合成映像間の同期がとれていない状態になる。 Furthermore, the second differential time 603 of the second imaging device 105 is shorter than the first differential time 602 of the first imaging device 100 by one frame or more. In this case, it is assumed that each differential time of each imaging device is held and synchronization processing is performed by the information processing device 102. At this time, the frame numbers of the composite image 901 of the first imaging device 100, the composite image 902 of the second imaging device 105, and the composite image 903 of the third imaging device 601 generated by the information processing device 102 are each shifted by one frame or more. This results in a state where the composite images are not synchronized.

図15、図16、図17は、各撮像装置における最も大きな差分時間に対応して各撮像装置がパケットと映像を遅延させて出力させた場合の時間関係を示す図である。図15、図16、図17中の時間tは、遅延映像処理時間1001は、撮像映像保持部801で保持した映像を読み取り、遅延映像信号出力部803で出力を行う時間を示している。尚、各撮像装置100内で同期を取る処理を行うため、情報処理装置102に関しては説明を省略する。 Figures 15, 16, and 17 are diagrams showing the time relationships when each imaging device delays and outputs packets and video corresponding to the largest time difference in each imaging device. Time t in Figures 15, 16, and 17 indicates the delayed video processing time 1001, which indicates the time when the video stored in the captured video storage unit 801 is read and output by the delayed video signal output unit 803. Note that because synchronization processing is performed within each imaging device 100, a description of the information processing device 102 is omitted.

図15、図16、図17では、映像信号の経路308に加えて、遅延映像1002について示している。さらに、パンチルト情報の経路309に変えて、遅延パンチルト情報の経路1003について示している。遅延映像1002は、映像信号の経路308の時間に加えて第3の撮像装置601の第3の差分時間604分時間を遅延させて遅延映像信号出力部803から出力した様子を示している。最も大きな差分時間に合わせて映像310を出力することで、第1から第3の撮像装置間で映像310のフレームが一致する。 In Figures 15, 16, and 17, in addition to the video signal path 308, delayed video 1002 is shown. Furthermore, instead of the pan/tilt information path 309, delayed pan/tilt information path 1003 is shown. The delayed video 1002 shows how it is output from the delayed video signal output unit 803 after being delayed by the time of the video signal path 308 plus the third differential time 604 of the third imaging device 601. By outputting the video 310 according to the largest differential time, the frames of the video 310 match between the first to third imaging devices.

遅延パンチルト情報の経路1003では、最も大きな差分時間に合わせてパケットの出力を遅延させている様子を示している。最も大きな差分時間に合わせて映像310を出力することで、第1から第3の撮像装置でパケットの出力タイミングが一致する。以上の処理によって映像310とパケット中のパンチルト情報を各撮像装置における最も大きな差分時間に合わせたタイミングで送信することで、パンチルト情報と映像を同期させて情報処理装置102に送信することが可能となる。 The delayed pan/tilt information path 1003 shows how the packet output is delayed to match the largest time difference. By outputting the image 310 to match the largest time difference, the packet output timing is synchronized in the first to third imaging devices. By transmitting the image 310 and the pan/tilt information in the packet with a timing that matches the largest time difference in each imaging device through the above processing, it becomes possible to transmit the pan/tilt information and the image in synchronization with each other to the information processing device 102.

図18と図19に示す処理では、各撮像装置の実差分時間704を各撮像装置間で共有し、その中で差分時間が最大となる実差分時間を、最最も大きな差分時間としてパケットに付加する差分時間410として決定する。そして、各撮像装置内で映像310とパンチルト情報のパケットを最も大きな差分時間に対応して遅延して出力させる。これにより、映像310もパンチルト情報も最も大きな差分時間に対応して遅延して情報処理装置102に送信されるため、情報処理装置102は、内部で映像310の保持などを行わず映像310とパンチルト情報の同期を行うことができる。 In the process shown in FIG. 18 and FIG. 19, the actual difference time 704 of each imaging device is shared between the imaging devices, and the actual difference time with the largest difference time is determined as the difference time 410 to be added to the packet as the largest difference time. Then, within each imaging device, the video 310 and the pan/tilt information packet are output with a delay corresponding to the largest difference time. As a result, both the video 310 and the pan/tilt information are transmitted to the information processing device 102 with a delay corresponding to the largest difference time, so the information processing device 102 can synchronize the video 310 and the pan/tilt information without internally storing the video 310.

図18は、実施形態2に係る撮像処理部201の処理フローを示す図である。図19は、実施形態2に係る通信処理部202の処理フローを示す図である。尚、情報処理装置102では上記したように同期した映像310とパンチルト情報を受け取り内部的な処理は不要のため、情報処理装置102の処理フローは省略するものとする。また、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。 Fig. 18 is a diagram showing the processing flow of the imaging processing unit 201 according to the second embodiment. Fig. 19 is a diagram showing the processing flow of the communication processing unit 202 according to the second embodiment. Note that the information processing device 102 receives the synchronized image 310 and pan/tilt information as described above and does not require internal processing, so the processing flow of the information processing device 102 will be omitted. Also, by adding an S to the beginning of each process (step), the notation of the process (step) will be omitted.

ここで、図18に示す撮像処理部201の処理フローは、映像信号に変換した映像310の出力とパンチルト情報をパケット生成部208に出力するまでの処理を述べている。そして、図18に示す処理全体は周期的に行われている。 The processing flow of the imaging processing unit 201 shown in FIG. 18 describes the process up to outputting the image 310 converted into a video signal and outputting the pan/tilt information to the packet generating unit 208. The entire process shown in FIG. 18 is performed periodically.

まず、S1001では、毎周期(所定の周期)でカメラ側の時間提供部205が通信処理部202と時間同期を行う。次に、S1002では、同期信号を受信したか否かを判定する。判定の結果、同期信号を受信した場合は、S1003とS1007に進む。一方、同期信号を受信していない場合は、S1001に戻り、同様の処理周期的に行う。 First, in S1001, the time providing unit 205 on the camera side performs time synchronization with the communication processing unit 202 every cycle (predetermined cycle). Next, in S1002, it is determined whether or not a synchronization signal has been received. If the result of the determination is that a synchronization signal has been received, the process proceeds to S1003 and S1007. On the other hand, if a synchronization signal has not been received, the process returns to S1001 and performs the same processing cycle.

次に、S1003では、撮像装置の撮像センサに対して撮像取得を指示する。次に、S1004では、撮像部206は、同期信号発信装置106から出力されるタイミングで画像処理を行い、フレーム時間の幅の中で、同じタイミングで撮像した映像310を生成して、撮像映像保持部801へと出力する。 Next, in S1003, an instruction to capture an image is issued to the imaging sensor of the imaging device. Next, in S1004, the imaging unit 206 performs image processing at the timing output from the synchronization signal transmission device 106, generates an image 310 captured at the same timing within the width of the frame time, and outputs the image to the captured image storage unit 801.

次に、S1101では、撮像映像保持部801は、撮像部206から出力した映像310を保存する。次に、S1102では、撮像映像保持部801は、パケット受信部802から最も大きな差分時間を取得する。次に、S1103では、撮像映像保持部801に保存されている複数の映像310の中から最も大きな差分時間以前の映像、即ち過去に遡った映像を選択する。 Next, in S1101, the captured image storage unit 801 stores the image 310 output from the imaging unit 206. Next, in S1102, the captured image storage unit 801 acquires the largest differential time from the packet receiving unit 802. Next, in S1103, from among the multiple images 310 stored in the captured image storage unit 801, an image that is older than the largest differential time, i.e., an image that goes back in time, is selected.

次に、S1104では、S1102で選択した映像310を遅延映像信号出力部803から情報処理装置102に出力する。次に、S1105では、S1102で選択された映像310よりも以前に記録された映像を撮像映像保持部801から削除する。その後、S1001に戻り、同様の処理周期的に行う Next, in S1104, the image 310 selected in S1102 is output from the delayed image signal output unit 803 to the information processing device 102. Next, in S1105, images recorded before the image 310 selected in S1102 are deleted from the captured image storage unit 801. After that, the process returns to S1001 and the same processing is performed periodically.

次に、S1007では、情報保持部204は、パンチルト部203からパンチルトに関するパンチルト情報を取得し、カメラ側の時間提供部205からパンチルト情報取得時間を取得する。次に、S1008では、情報保持部204は、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208へ送信する。その後S1001に戻り同様の処理を周期的に行う。尚、S1003とS1007の処理を開始するタイミングは連動していることが好ましいが、S1003とS1007の処理を同時に開始することがより好ましい。 Next, in S1007, the information holding unit 204 acquires pan/tilt information related to pan/tilt from the pan/tilt unit 203, and acquires the pan/tilt information acquisition time from the time providing unit 205 on the camera side. Next, in S1008, the information holding unit 204 transmits the pan/tilt information and the pan/tilt information acquisition time to the packet generating unit 208 by in-flight communication. Thereafter, the process returns to S1001 and the same process is performed periodically. Note that it is preferable that the timing of starting the processes of S1003 and S1007 is linked, but it is more preferable that the processes of S1003 and S1007 are started simultaneously.

ここで、図19に示す通信処理部202の処理フローは、他の撮像装置からパケットを受け取り最も大きな差分時間を求める処理と、パンチルト情報を機内通信で撮像処理部201から受け取り、パケットとして出力するまでの処理を示している。そして、図19に示す処理全体は周期的に行われている。 The processing flow of the communication processing unit 202 shown in FIG. 19 shows the process of receiving packets from other imaging devices and finding the largest difference time, and the process of receiving pan/tilt information from the imaging processing unit 201 via in-flight communication and outputting it as a packet. The entire process shown in FIG. 19 is performed periodically.

まず、S1009では、毎周期(所定の周期)でネットワーク側の時間提供部209が撮像処理部201と時間同期を行う。次に、S1111では、他の撮像装置から差分時間を取得したか否かを判定する。他の撮像装置から差分時間を取得した場合は、S1112に進む。一方、他の撮像装置から差分時間を取得していない場合、S1009に戻り同様の処理を行う。ここでいう他の撮像装置からの差分時間とは他の撮像装置における実差分時間704である。 First, in S1009, the time providing unit 209 on the network side synchronizes time with the imaging processing unit 201 every cycle (predetermined cycle). Next, in S1111, it is determined whether or not a differential time has been acquired from another imaging device. If a differential time has been acquired from another imaging device, the process proceeds to S1112. On the other hand, if a differential time has not been acquired from another imaging device, the process returns to S1009 and performs the same process. The differential time from another imaging device here refers to the actual differential time 704 in the other imaging device.

次に、S1112では、他の撮像装置から取得した差分時間が、自身の差分時間より大きいか否かを比較する。比較の結果、他の撮像装置から取得した差分時間が、自身の差分時間より大きい場合は、S1113に進む。一方、他の撮像装置から取得した差分時間が、自身の差分時間より小さい場合は、S1009に戻り同様の処理を周期的に行う。 Next, in S1112, a comparison is made to see whether the difference time acquired from the other imaging device is greater than the device's own difference time. If the comparison result shows that the difference time acquired from the other imaging device is greater than the device's own difference time, the process proceeds to S1113. On the other hand, if the difference time acquired from the other imaging device is smaller than the device's own difference time, the process returns to S1009 and the same process is periodically performed.

次に、S1112では、差分時間の更新を行う。これにより他の装置のいずれかの差分時間が最も大きな差分時間ということが分かり、接続されている各撮像装置間における最も大きな差分時間を各撮像装置が保持することができる。 Next, in S1112, the differential time is updated. This allows the system to determine which of the other devices has the largest differential time, and each imaging device can store the largest differential time between the connected imaging devices.

次に、S1010では、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信したか否かを判定する。判定の結果、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信した場合、S1011に進む。一方、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信していない場合、S1009に戻り同様の処理を周期的に行う。 Next, in S1010, it is determined whether or not the packet generation unit 208 has received the pan-tilt information and the pan-tilt information acquisition time via in-flight communication. If the result of the determination is that the packet generation unit 208 has received the pan-tilt information and the pan-tilt information acquisition time via in-flight communication, the process proceeds to S1011. On the other hand, if the packet generation unit 208 has not received the pan-tilt information and the pan-tilt information acquisition time via in-flight communication, the process returns to S1009 and the same process is periodically performed.

次に、S1006では、機内通信で受信したパンチルト情報を保存する。次に、S1012では、時間付加部210は、ネットワーク側の時間提供部209からパケット送付時間を取得する。次に、S1013では、時間付加部210は、S1012で取得したパケット送付時間と、S1011でパケット生成部208から送信されたパンチルト情報取得時間とに基づき、差分時間401を算出する。 Next, in S1006, the pan/tilt information received via in-flight communication is stored. Next, in S1012, the time addition unit 210 acquires the packet sending time from the time provision unit 209 on the network side. Next, in S1013, the time addition unit 210 calculates the differential time 401 based on the packet sending time acquired in S1012 and the pan/tilt information acquisition time sent from the packet generation unit 208 in S1011.

次に、S1107では、S1013で算出した差分時間401が最も大きな差分時間よりも大きいか否かを比較する。比較の結果、S1013で算出した差分時間401が最も大きな差分時間よりも大きい場合はS1108に進む。一方、S1013で算出した差分時間401が最も大きな差分時間よりも小さい場合は、S1109に進む。 Next, in S1107, a comparison is made to see whether the difference time 401 calculated in S1013 is greater than the largest difference time. If the comparison result shows that the difference time 401 calculated in S1013 is greater than the largest difference time, the process proceeds to S1108. On the other hand, if the difference time 401 calculated in S1013 is less than the largest difference time, the process proceeds to S1109.

次に、S1108では、S1013で算出した差分時間401を最も大きな差分時間とするように差分時間を更新する。次に、S1109では、最も大きな差分時間と自身の差分時間401の差分を計算し、算出した時間よりも前のパンチルト情報を取得する。 Next, in S1108, the difference time is updated so that the difference time 401 calculated in S1013 becomes the largest difference time. Next, in S1109, the difference between the largest difference time and the own difference time 401 is calculated, and pan/tilt information from before the calculated time is obtained.

次に、S1011では、パケット生成部208は、受信したパンチルト情報についてネットワーク103を介して情報処理装置102が受信することが可能なパケット形式へ変換して、パケットを生成する。この時に、パンチルト情報取得時間は、パンチルト情報が含まれる当該パケットには含まないようにして時間付加部210へと送信する。 Next, in S1011, the packet generating unit 208 converts the received pan-tilt information into a packet format that can be received by the information processing device 102 via the network 103, and generates a packet. At this time, the pan-tilt information acquisition time is not included in the packet that contains the pan-tilt information, and the packet is transmitted to the time adding unit 210.

次に、S1110では、第2の時間付加部804は、最も大きな差分時間をパンチルト情報が付加されているパケットに付加する。次に、S1016では、第2の時間付加部804は、最も大きな差分時間が追加されたパケットを情報処理装置102に送信する。次に、S1114では、S1109で取得したパンチルト情報よりも以前に保持されたパンチルト情報を削除する。その後、S1009に戻り同様の処理を周期的に行う。 Next, in S1110, the second time addition unit 804 adds the largest differential time to the packet to which the pan/tilt information has been added. Next, in S1016, the second time addition unit 804 transmits the packet to which the largest differential time has been added to the information processing device 102. Next, in S1114, the pan/tilt information held before the pan/tilt information acquired in S1109 is deleted. After that, the process returns to S1009 and the same process is periodically performed.

以上の処理によれば、同期信号発信装置106の信号によって同期をとっている撮像装置の映像310と、パケットによって出力されるパンチルト情報を各撮像装置が同一の差分時間に基づいて出力することができる。そのため、情報処理装置102では映像310とパンチルト情報に時間的な同期が取れた状態で受け取ることができる。以上の状態で生成される3次元グラフィック映像と撮像装置の映像310を合成することで複数の撮像装置の映像と3次元グラフィック映像を同期して出力することが可能なシステムを提供することができる。 According to the above processing, each imaging device can output the image 310 of the imaging device synchronized by the signal from the synchronization signal transmission device 106 and the pan/tilt information output by the packet based on the same difference time. Therefore, the information processing device 102 can receive the image 310 and the pan/tilt information in a time-synchronized state. By synthesizing the 3D graphic image generated in the above state with the image 310 of the imaging device, it is possible to provide a system that can output the images of multiple imaging devices and the 3D graphic image in a synchronized manner.

尚、実施形態1と実施形態2では、遅延映像信号出力部803と映像信号出力部207は異なるものとして説明しているが、上記した機能をいずれも備えている一つの出力部として構成してもよい。また、実施形態1と実施形態2の各撮像装置は、遅延映像信号出力部803と映像信号出力部207のどちらを備えていてもよい。また、その場合、映像310やパケットの遅延を行うか、行わないかを選択可能な構成としてもよい。また、これらの構成を複数保持し、出力する映像310をユーザ操作によって出力方法を選択や切り替え可能に構成しても。 In the first and second embodiments, the delayed video signal output unit 803 and the video signal output unit 207 are described as being different, but they may be configured as a single output unit having both of the above-mentioned functions. Furthermore, each imaging device in the first and second embodiments may be equipped with either the delayed video signal output unit 803 or the video signal output unit 207. In that case, the configuration may be such that it is selectable whether or not to delay the video 310 or packets. Furthermore, a plurality of these configurations may be held, and the output method of the video 310 to be output may be selectable or switchable by user operation.

上記の各実施形態ではパン及びチルトを対象としていたが、映像の画角に影響を及ぼすモータ駆動系についてもパンチルト情報に同様に付加することで画角の同期を行うことができる。 In the above embodiments, the focus was on panning and tilting, but the angle of view can also be synchronized by adding information about the motor drive system, which affects the angle of view of the image, to the pan-tilt information in a similar manner.

本実施形態の開示は、以下の構成、方法、及びプログラムを含む。 The disclosure of this embodiment includes the following configuration, method, and program.

(構成1)
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
撮像部の画角を変更可能なパンチルト部と、
撮像部が生成した映像を出力する出力部と、
同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、
状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有する、
ことを特徴とする撮像装置。
(Configuration 1)
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs the packet, and adds the difference time to the packet.
1. An imaging device comprising:

(構成2)
同期した時間を提供する時間提供部を有し、
時間付加部は、第2の時間を時間提供部から取得することを特徴とする構成1に記載の撮像装置。
(Configuration 2)
A time providing unit that provides a synchronized time;
2. The imaging device according to configuration 1, wherein the time adding section obtains the second time from a time providing section.

(構成3)
状態情報と第1の時間を保持する情報保持部を有することを特徴とする構成2に記載の撮像装置。
(Configuration 3)
3. The imaging device according to configuration 2, further comprising an information storage unit for storing the state information and the first time.

(構成4)
情報保持部は、出力部が映像を出力する際に時間提供部から第1の時間を、時間提供部からは状態情報をそれぞれ取得することを特徴とする構成3に記載の撮像装置。
(Configuration 4)
4. The imaging device according to configuration 3, wherein the information holding unit obtains the first time from the time providing unit and the state information from the time providing unit when the output unit outputs the video.

(構成5)
情報保持部は、同期信号発信装置が出力する信号を撮像部からの通知によって検知し、状態情報を取得することを特徴とする構成3または4に記載の撮像装置。
(Configuration 5)
5. The imaging device according to configuration 3 or 4, wherein the information holding section detects the signal output from the synchronization signal transmission device by notification from the imaging section, and acquires the state information.

(構成6)
出力部は、同期信号発信装置が出力する信号に合わせて映像を出力することを特徴とする構成1乃至5のいずれか1項に記載の撮像装置。
(Configuration 6)
6. The imaging device according to any one of configurations 1 to 5, wherein the output section outputs an image in accordance with a signal output from a synchronization signal transmission device.

(構成7)
時間付加部は、差分時間が映像における1フレームよりも大きな時間であった場合、パケットに差分時間を付加し、差分時間が映像における1フレームよりも小さい時間であった場合、パケットに差分時間を付加しないことを特徴とする構成1乃至6のいずれか1項に記載の撮像装置。
(Configuration 7)
The imaging device described in any one of configurations 1 to 6, characterized in that the time addition unit adds the differential time to the packet when the differential time is a time greater than one frame in the video, and does not add the differential time to the packet when the differential time is a time smaller than one frame in the video.

(構成8)
差分時間を付加したパケットを、撮像装置とは異なる他の撮像装置に対して送付する通信部を有することを特徴とする構成1乃至7のいずれか1項に記載の撮像装置。
(Configuration 8)
8. The imaging device according to any one of configurations 1 to 7, further comprising a communication unit that transmits a packet to which a difference time has been added to another imaging device different from the imaging device itself.

(構成9)
他の撮像装置は少なくとも1つ以上であることを特徴とする構成8に記載の撮像装置。
(Configuration 9)
9. The imaging device according to configuration 8, wherein the other imaging device is at least one.

(構成10)
他の撮像装置における差分時間を付加したパケットを受信するパケット受信部を有することを特徴とする構成8または9に記載の撮像装置。
(Configuration 10)
10. The imaging device according to configuration 8 or 9, further comprising a packet receiving unit for receiving a packet to which a difference time in another imaging device is added.

(構成11)
パケット受信部は、他の撮像装置における差分時間と、撮像装置における差分時間とを比較することで最も大きな差分時間を決定することを特徴とする構成10に記載の撮像装置。
(Configuration 11)
11. The imaging device according to configuration 10, wherein the packet receiving section determines the largest differential time by comparing the differential time in the imaging device with the differential time in the other imaging devices.

(構成12)
時間付加部は、最も大きな差分時間をパケットに付加することを特徴とする構成11に記載の撮像装置。
(Configuration 12)
12. The imaging device according to configuration 11, wherein the time adding section adds the largest difference time to the packet.

(構成13)
時間付加部は、最も大きな差分時間と差分時間との差分を算出し、算出した差分に応じてパケットを出力することを特徴とする構成11または12に記載の撮像装置。
(Configuration 13)
13. The imaging device according to configuration 11 or 12, wherein the time adding section calculates the difference between the largest differential time and the differential time, and outputs a packet according to the calculated difference.

(構成14)
映像を保持する映像保持部を有し、
映像保持部は、最も大きな差分時間分遅らせた映像を出力することを特徴とする構成13に記載に撮像装置。
(Configuration 14)
An image storage unit that stores an image,
14. The imaging device according to claim 13, wherein the image storage unit outputs the image delayed by the largest difference time.

(構成15)
出力部は、映像保持部により出力された最も大きな差分時間分遅らせた映像を同期信号発信装置が出力する信号に合わせて出力することを特徴とする構成14に記載の撮像装置。
(Configuration 15)
15. The imaging device according to configuration 14, wherein the output unit outputs the video output by the video holding unit, delayed by the largest time difference, in synchronization with the signal output by the synchronization signal transmission device.

(構成16)
状態情報は、撮像部の現在の画角の情報であることを特徴とする構成1乃至15のいずれか1項に記載の撮像装置。
(Configuration 16)
16. The imaging device according to any one of configurations 1 to 15, wherein the state information is information about a current angle of view of the imaging unit.

(構成17)
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
生成した映像を出力し、
同期信号発信装置が出力する信号を検知した際の映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成し、
状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する、
ことを特徴とする撮像装置の制御方法。
(Configuration 17)
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Output the generated image,
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates an image when a signal output from a synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the status information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
23. A method for controlling an imaging apparatus comprising:

(構成18)
撮像装置の制御方法をコンピュータに実行させるためのプログラムであって、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
生成した映像を出力し、
同期信号発信装置が出力する信号を検知した際の映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成し、
状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する、
ことを特徴とするプログラム。
(Configuration 18)
A program for causing a computer to execute a control method for an imaging device,
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Output the generated image,
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates an image when a signal output from a synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the status information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
A program characterized by:

(構成19)
周期的な信号を発信する同期信号発信装置が出力する信号を検知した際の撮像装置のパンチルト部における状態の情報として状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間が付加されたパケットを受信する通信部と、
信号に合わせて撮像した画像に画像処理を行い生成された映像を保持する保持部と、
映像に対応するグラフィックを生成する生成部と、
状態情報に基づき、グラフィックの描画を変化させる描画部と、
描画部で描画されたグラフィックと映像を合成し合成映像を生成する描画合成部と、を有し、
描画合成部は、パケットに付加された差分時間が所定の時間以上であった場合、差分時間に基づき、保持部に保持されている映像から差分時間以前の映像を選択し、選択した映像と描画部で描画されたグラフィックとを合成して合成映像を生成する、
ことを特徴とする情報処理装置。
(Configuration 19)
a communication unit that receives a packet to which a difference time is added, the difference being between a first time, which is a time at which state information is acquired as information on a state of a pan-tilt unit of the imaging device when a signal output from a synchronization signal transmission device that transmits a periodic signal is detected, and a second time, which is a time at which the packet is output;
a storage unit that stores a video image generated by performing image processing on the image captured in accordance with the signal;
a generating unit for generating a graphic corresponding to the video;
a drawing unit that changes the drawing of a graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit with the video to generate a synthesized video;
the drawing synthesis unit, when the difference time added to the packet is equal to or greater than a predetermined time, selects an image that is older than the difference time from the images stored in the storage unit based on the difference time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a synthetic image;
23. An information processing apparatus comprising:

(構成20)
少なくとも1つ以上の撮像装置と、撮像装置と通信可能に接続される情報処理装置と、を有する撮像システムであって、
撮像装置は、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
撮像部の画角を変更可能なパンチルト部と、
撮像部が生成した映像を出力する出力部と、
同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、
状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有し、
情報処理装置は、
パケットを受信する通信部と、
映像を保持する保持部と、
映像に対応する所定のグラフィックを生成する生成部と、
状態情報に基づき、所定のグラフィックの描画を変化させる描画部と、
描画部で描画されたグラフィックと映像を合成し合成映像を生成する描画合成部と、を有し、
描画合成部は、パケットに付加された差分時間が所定の時間以上であった場合、差分時間に基づき、保持部に保持されている映像から差分時間以前の映像を選択し、選択した映像と描画部で描画されたグラフィックとを合成して合成映像を生成する、ことを特徴とする撮像システム。
(Configuration 20)
An imaging system having at least one imaging device and an information processing device communicably connected to the imaging device,
The imaging device
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs a packet, and adds the difference time to the packet,
The information processing device includes:
A communication unit for receiving packets;
A storage unit for storing an image;
A generating unit that generates a predetermined graphic corresponding to the video;
a drawing unit that changes the drawing of a predetermined graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit with the video to generate a synthesized video;
The imaging system is characterized in that, when the differential time added to the packet is equal to or greater than a predetermined time, the drawing synthesis unit selects an image from the image stored in the storage unit that was taken before the differential time based on the differential time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a composite image.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 The above describes preferred embodiments of the present invention, but the present invention is not limited to these embodiments, and various modifications and variations are possible within the scope of the gist of the invention.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。その場合、そのプログラム、該プログラムを記憶した記憶媒体は本発明を構成することとなる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in the computer of the system or device read and execute the program. In this case, the program and the storage medium on which the program is stored constitute the present invention. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.

100 第1の撮像装置
102 情報処理装置
103 ネットワーク
104 ディスプレイ
105 第2の撮像装置
106 同期信号発信装置
201 撮像処理部
202 通信処理部
203 パンチルト部
204 保持部
205 時間提供部
206 撮像部
207 映像信号出力部
208 パケット生成部
209 時間提供部
210 時間付加部
211 撮像装置通信部
212 表示装置通信部
213 パンチルト情報描画部
214 3次元グラフィック生成部
215 映像保持部
216 描画合成部

REFERENCE SIGNS LIST 100 First imaging device 102 Information processing device 103 Network 104 Display 105 Second imaging device 106 Synchronization signal transmission device 201 Imaging processing unit 202 Communication processing unit 203 Pan/tilt unit 204 Storage unit 205 Time providing unit 206 Imaging unit 207 Video signal output unit 208 Packet generation unit 209 Time providing unit 210 Time addition unit 211 Imaging device communication unit 212 Display device communication unit 213 Pan/tilt information drawing unit 214 Three-dimensional graphics generation unit 215 Video storage unit 216 Drawing synthesis unit

Claims (20)

周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
前記撮像部の画角を変更可能なパンチルト部と、
前記撮像部が生成した前記映像を出力する出力部と、
前記同期信号発信装置が出力する前記信号を検知した際の前記パンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成するパケット生成部と、
前記状態情報を取得した時間である第1の時間と前記パケット生成部が前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する時間付加部と、を有する、
ことを特徴とする撮像装置。
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs the packet, and adds the difference time to the packet.
1. An imaging device comprising:
同期した時間を提供する時間提供部を有し、
前記時間付加部は、前記第2の時間を前記時間提供部から取得することを特徴とする請求項1に記載の撮像装置。
A time providing unit that provides a synchronized time;
The imaging device according to claim 1 , wherein the time adding unit obtains the second time from the time providing unit.
前記状態情報と前記第1の時間を保持する情報保持部を有することを特徴とする請求項2に記載の撮像装置。 The imaging device according to claim 2, further comprising an information storage unit that stores the state information and the first time. 前記情報保持部は、前記出力部が前記映像を出力する際に前記時間提供部から前記第1の時間を、前記時間提供部からは前記状態情報をそれぞれ取得することを特徴とする請求項3に記載の撮像装置。 The imaging device according to claim 3, characterized in that the information storage unit acquires the first time from the time providing unit and the status information from the time providing unit when the output unit outputs the video. 前記情報保持部は、前記同期信号発信装置が出力する前記信号を前記撮像部からの通知によって検知し、前記状態情報を取得することを特徴とする請求項3に記載の撮像装置。 The imaging device according to claim 3, characterized in that the information storage unit detects the signal output by the synchronization signal transmission device by notification from the imaging unit and acquires the status information. 前記出力部は、前記同期信号発信装置が出力する前記信号に合わせて前記映像を出力することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, characterized in that the output unit outputs the video in accordance with the signal output by the synchronization signal transmission device. 前記時間付加部は、前記差分時間が前記映像における1フレームよりも大きな時間であった場合、前記パケットに前記差分時間を付加し、前記差分時間が前記映像における1フレームよりも小さい時間であった場合、前記パケットに前記差分時間を付加しないことを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, characterized in that the time addition unit adds the differential time to the packet when the differential time is a time longer than one frame in the video, and does not add the differential time to the packet when the differential time is a time shorter than one frame in the video. 前記差分時間を付加した前記パケットを、前記撮像装置とは異なる他の撮像装置に対して送付する通信部を有することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, further comprising a communication unit that transmits the packet to which the difference time has been added to an imaging device other than the imaging device. 前記他の撮像装置は少なくとも1つ以上であることを特徴とする請求項8に記載の撮像装置。 The imaging device according to claim 8, characterized in that the other imaging device is at least one. 前記他の撮像装置における差分時間を付加したパケットを受信するパケット受信部を有することを特徴とする請求項8に記載の撮像装置。 The imaging device according to claim 8, further comprising a packet receiving unit for receiving packets to which the difference time in the other imaging device is added. 前記パケット受信部は、前記他の撮像装置における差分時間と、前記撮像装置における前記差分時間とを比較することで最も大きな差分時間を決定することを特徴とする請求項10に記載の撮像装置。 The imaging device according to claim 10, characterized in that the packet receiving unit determines the largest difference time by comparing the difference time in the other imaging device with the difference time in the imaging device. 前記時間付加部は、前記最も大きな差分時間を前記パケットに付加することを特徴とする請求項11に記載の撮像装置。 The imaging device according to claim 11, characterized in that the time addition unit adds the largest difference time to the packet. 前記時間付加部は、前記最も大きな差分時間と前記差分時間との差分を算出し、算出した前記差分に応じて前記パケットを出力することを特徴とする請求項11に記載の撮像装置。 The imaging device according to claim 11, characterized in that the time addition unit calculates the difference between the largest differential time and the differential time, and outputs the packet according to the calculated difference. 前記映像を保持する映像保持部を有し、
前記映像保持部は、前記最も大きな差分時間分遅らせた映像を出力することを特徴とする請求項13に記載に撮像装置。
an image storage unit for storing the image;
14. The imaging device according to claim 13, wherein the image storage unit outputs the image delayed by the largest time difference.
前記出力部は、前記映像保持部により出力された前記最も大きな差分時間分遅らせた映像を前記同期信号発信装置が出力する前記信号に合わせて出力することを特徴とする請求項14に記載の撮像装置。 The imaging device according to claim 14, characterized in that the output unit outputs the image delayed by the largest difference time output by the image storage unit in accordance with the signal output by the synchronization signal transmission device. 前記状態情報は、前記撮像部の現在の画角の情報であることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, characterized in that the status information is information about the current angle of view of the imaging unit. 周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
前記生成した前記映像を出力し、
前記同期信号発信装置が出力する前記信号を検知した際の前記映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成し、
前記状態情報を取得した時間である第1の時間と前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する、
ことを特徴とする撮像装置の制御方法。
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Outputting the generated image;
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates the image when the signal output by the synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the state information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
23. A method for controlling an imaging apparatus comprising the steps of:
撮像装置の制御方法をコンピュータに実行させるためのプログラムであって、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
前記生成した前記映像を出力し、
前記同期信号発信装置が出力する前記信号を検知した際の前記映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成し、
前記状態情報を取得した時間である第1の時間と前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する、
ことを特徴とするプログラム。
A program for causing a computer to execute a control method for an imaging device,
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Outputting the generated image;
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates the image when the signal output by the synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the state information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
A program characterized by:
周期的な信号を発信する同期信号発信装置が出力する信号を検知した際の撮像装置のパンチルト部における状態の情報として状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間が付加されたパケットを受信する通信部と、
前記信号に合わせて撮像した画像に画像処理を行い生成された映像を保持する保持部と、
前記映像に対応するグラフィックを生成する生成部と、
前記状態情報に基づき、前記グラフィックの描画を変化させる描画部と、
前記描画部で描画されたグラフィックと前記映像を合成し合成映像を生成する描画合成部と、を有し、
前記描画合成部は、前記パケットに付加された前記差分時間が所定の時間以上であった場合、前記差分時間に基づき、前記保持部に保持されている映像から前記差分時間以前の映像を選択し、選択した映像と前記描画部で描画されたグラフィックとを合成して合成映像を生成する、
ことを特徴とする情報処理装置。
a communication unit that receives a packet to which a difference time is added, the difference being between a first time, which is a time at which state information is acquired as information on a state of a pan-tilt unit of the imaging device when a signal output from a synchronization signal transmission device that transmits a periodic signal is detected, and a second time, which is a time at which the packet is output;
a storage unit that stores a video image generated by performing image processing on the image captured in accordance with the signal;
a generating unit for generating a graphic corresponding to the image;
a drawing unit that changes the drawing of the graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit and the image to generate a synthetic image,
when the differential time added to the packet is equal to or greater than a predetermined time, the drawing synthesis unit selects an image that is older than the differential time from the images stored in the storage unit based on the differential time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a synthetic image.
23. An information processing apparatus comprising:
少なくとも1つ以上の撮像装置と、前記撮像装置と通信可能に接続される情報処理装置と、を有する撮像システムであって、
前記撮像装置は、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
前記撮像部の画角を変更可能なパンチルト部と、
前記撮像部が生成した前記映像を出力する出力部と、
前記同期信号発信装置が出力する前記信号を検知した際の前記パンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成するパケット生成部と、
前記状態情報を取得した時間である第1の時間と前記パケット生成部が前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する時間付加部と、を有し、
前記情報処理装置は、
前記パケットを受信する通信部と、
前記映像を保持する保持部と、
前記映像に対応する所定のグラフィックを生成する生成部と、
前記状態情報に基づき、前記所定のグラフィックの描画を変化させる描画部と、
前記描画部で描画されたグラフィックと前記映像を合成し合成映像を生成する描画合成部と、を有し、
前記描画合成部は、前記パケットに付加された前記差分時間が所定の時間以上であった場合、前記差分時間に基づき、前記保持部に保持されている映像から前記差分時間以前の映像を選択し、選択した映像と前記描画部で描画されたグラフィックとを合成して合成映像を生成する、ことを特徴とする撮像システム。

An imaging system having at least one imaging device and an information processing device communicably connected to the imaging device,
The imaging device includes:
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs the packet, and adds the difference time to the packet,
The information processing device includes:
A communication unit for receiving the packet;
A storage unit for storing the image;
a generating unit for generating a predetermined graphic corresponding to the image;
a drawing unit that changes the drawing of the predetermined graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit and the image to generate a synthetic image,
The imaging system is characterized in that, when the differential time added to the packet is equal to or greater than a predetermined time, the drawing synthesis unit selects, based on the differential time, an image from the image stored in the storage unit that was taken before the differential time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a synthetic image.

JP2022162167A 2022-10-07 2022-10-07 IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM Pending JP2024055333A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022162167A JP2024055333A (en) 2022-10-07 2022-10-07 IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022162167A JP2024055333A (en) 2022-10-07 2022-10-07 IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM

Publications (1)

Publication Number Publication Date
JP2024055333A true JP2024055333A (en) 2024-04-18

Family

ID=90716462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022162167A Pending JP2024055333A (en) 2022-10-07 2022-10-07 IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM

Country Status (1)

Country Link
JP (1) JP2024055333A (en)

Similar Documents

Publication Publication Date Title
US10958820B2 (en) Intelligent interface for interchangeable sensors
EP0589657B1 (en) Network system and terminal apparatus
JP4623069B2 (en) Information processing apparatus and method, program, and recording medium
US8711207B2 (en) Method and system for presenting live video from video capture devices on a computer monitor
JP4346591B2 (en) Video processing apparatus, video processing method, and program
JP7184248B2 (en) real-time editing system
JP4451730B2 (en) Moving picture generating apparatus, method and program
JP4559976B2 (en) Video composition apparatus, video composition method, and video composition program
WO2019155894A1 (en) Communication device, communication method, and program
JP2018535622A (en) Network video communication applicable to Gigabit Ethernet
US8179421B2 (en) Image synthesizing device and method and computer readable medium
CN111988552B (en) Image output control method and device and video processing equipment
JP2024055333A (en) IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM
JP2019087880A (en) Signal output device, camera pan head, camera pan head interlocking system, and program
KR101562789B1 (en) Method for both routing and switching multi-channel hd/uhd videos and the apparatus thereof
JP7190849B2 (en) IMAGE GENERATION DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE GENERATION DEVICE
JP5863356B2 (en) Stereo moving image imaging apparatus, imaging method, stereo moving image display apparatus, display method, and program
JP2023075859A (en) Information processing apparatus, information processing method, and program
JP2010278983A (en) Apparatus and method of transmitting images
JP5225068B2 (en) Image processing apparatus and image processing method
JP2004504683A (en) Method and apparatus for determining current projection data for projection of a spatially varying surface
JP2020077997A (en) Image processing apparatus, system, information processing method, and program
WO2009098763A1 (en) Video processor, video processing method and video processing program
JP6027739B2 (en) Video processing apparatus, video processing method, video processing system, and program
TWI812003B (en) Method and system for previewing the image