JP2024055333A - IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM - Google Patents
IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM Download PDFInfo
- Publication number
- JP2024055333A JP2024055333A JP2022162167A JP2022162167A JP2024055333A JP 2024055333 A JP2024055333 A JP 2024055333A JP 2022162167 A JP2022162167 A JP 2022162167A JP 2022162167 A JP2022162167 A JP 2022162167A JP 2024055333 A JP2024055333 A JP 2024055333A
- Authority
- JP
- Japan
- Prior art keywords
- time
- unit
- image
- imaging device
- packet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 360
- 230000010365 information processing Effects 0.000 title claims description 103
- 238000000034 method Methods 0.000 title claims description 73
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 97
- 230000008054 signal transmission Effects 0.000 claims abstract description 34
- 230000000737 periodic effect Effects 0.000 claims abstract description 12
- 238000004891 communication Methods 0.000 claims description 70
- 230000003111 delayed effect Effects 0.000 claims description 24
- 230000001360 synchronised effect Effects 0.000 claims description 22
- 230000015572 biosynthetic process Effects 0.000 claims description 19
- 238000003786 synthesis reaction Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 62
- 238000010586 diagram Methods 0.000 description 33
- 230000006870 function Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 239000002131 composite material Substances 0.000 description 10
- 230000002194 synthesizing effect Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 238000004091 panning Methods 0.000 description 5
- 230000001934 delay Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】合成した映像が停止している映像と違和感のない映像とするために遅延する時間から差分時間を算出して出力をする撮像装置を提供する。【解決手段】撮像装置であって、周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、撮像部の画角を変更可能なパンチルト部と、撮像部が生成した映像を出力する出力部と、同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有する、ことを特徴とする。【選択図】図2[Problem] To provide an imaging device that calculates and outputs a differential time from a delay time so that a synthesized image does not look unnatural from a still image. [Solution] The imaging device is characterized by having an imaging section that performs image processing on an image captured in accordance with a signal output from a synchronization signal transmission device that transmits a periodic signal to generate an image, a pan-tilt section that can change the angle of view of the imaging section, an output section that outputs the image generated by the imaging section, a packet generation section that obtains status information that is information on the status of the pan-tilt section when the signal output from the synchronization signal transmission device is detected and generates a packet including the status information, and a time addition section that calculates a differential time that is the difference between a first time that is the time when the status information was obtained and a second time that is the time when the packet generation section outputs the packet, and adds the differential time to the packet. [Selected Figure] Figure 2
Description
本発明は、撮像装置、撮像装置の制御方法、プログラム、情報処理装置、及び撮像システムに関するものである。 The present invention relates to an imaging device, a control method for an imaging device, a program, an information processing device, and an imaging system.
近年カメラ映像で撮影した映像と、バーチャル空間の背景映像を合成したコンテンツが求められている。特にパンチルト駆動するカメラの映像をコンピュータなどの情報処理装置に送り、情報処理装置で生成されたバーチャル空間の映像と合成したコンテンツは、動画配信やバーチャル会議などで活用が求められている。こうしたパンチルトカメラとバーチャル空間の融合に、パンチルトカメラのピッチ角、ヨー角をはじめとしたカメラの姿勢に関する情報をETHERNET(登録商標)などのネットワーク経由で送信するプロトコルがある。当該プロトコルは、撮像装置が情報処理装置の作るバーチャル空間のワールド座標系のカメラとして振る舞うためのプロトコルであって、例えばFreeDプロトコルがある。 In recent years, there has been a demand for content that combines images captured by a camera with background images of a virtual space. In particular, content in which images from a pan-tilt camera are sent to an information processing device such as a computer and combined with images of a virtual space generated by the information processing device is in demand for use in video distribution and virtual conferences. To combine such pan-tilt cameras with virtual spaces, there is a protocol that transmits information about the camera's attitude, including the pitch angle and yaw angle of the pan-tilt camera, via a network such as ETHERNET (registered trademark). This protocol allows an imaging device to act as a camera in the world coordinate system of the virtual space created by the information processing device, and an example of this is the FreeD protocol.
一方、複数のカメラ連携を想定して、カメラのHDMI(登録商標)などの映像に対して位相同期信号用いて映像のタイミングを同期し、カメラ間の映像生成の誤差を補正する技術が知られている。こうした技術背景から複数のカメラが連携した環境において、同期信号による映像の同期とFreeDプロトコルといったバーチャル空間の映像の同期を併用することが求められている。 On the other hand, there is a known technology that uses a phase synchronization signal for the camera's HDMI (registered trademark) video to synchronize the timing of the video and correct errors in video generation between cameras, assuming the linking of multiple cameras. Given this technical background, in an environment where multiple cameras are linked, there is a demand for a combination of video synchronization using a synchronization signal and video synchronization in a virtual space such as the FreeD protocol.
こうした位相同期信号による補正はフレーム間のずれを補正することが目的とされているが、FreeDプロトコルはネットワーク経由で配信される為、1フレームよりも大きなレイテンシを要し、映像信号と比較して遅延量が大きい。映像信号にFreeDといったメカ駆動情報と同期を行う技術としては特許文献1に示すような、雲台付きカメラと映像を同期させる技術があるが、パンチルト駆動の開始や終了のタイミングといった1フレーム内における時間同期をするものであった。 The purpose of such corrections using phase synchronization signals is to correct misalignment between frames, but because the FreeD protocol is distributed over a network, it requires a latency greater than one frame, and the amount of delay is greater than with video signals. One technique for synchronizing a video signal with mechanical drive information such as FreeD is the technique shown in Patent Document 1, which synchronizes a camera with a pan head with video, but this only synchronizes time within one frame, such as the start and end timing of pan-tilt drive.
また、特許文献2ではレンズとカメラといった異なるデバイス間でハード線を基準とした同期を行っているが、映像信号と、ネットワークといった異なる通信体系で同期をとるものではない。 In addition, in Patent Document 2, synchronization is performed based on a hard line between different devices such as a lens and a camera, but synchronization is not performed using different communication systems such as a video signal and a network.
しかしながら、特許文献1や特許文献2ではフレーム内の同期された映像信号と、パンチルト情報がネットワーク経由で通信された情報の遅延といった、スケールの異なる遅延量に関して同期を行っていない。 However, Patent Documents 1 and 2 do not synchronize the synchronized video signal within a frame with delays of different scales, such as delays in information transmitted over a network for pan/tilt information.
映像はフレーム内の時間におけるずれを同期しても、パンチルト情報がもたらされる時間が遅延してしまうため、パンチルト情報を用いて生成した3次元グラフィックと映像情報を合成した際に差異が発生してしまう。例えばパンチルトが停止した際の映像と、停止する直前のまだ駆動しているパンチルト情報に基づいた3次元グラフィックを合成すると、3次元グラフィックから生成された映像(3次元グラフィック映像)は、パンチルトが駆動中の情報をもとに生成される。そのため、停止している映像と合成した映像にユーザは違和感を覚えてしまう。 Even if the time difference within a frame is synchronized, the time that the pan/tilt information is provided is delayed, so differences arise when the 3D graphics generated using the pan/tilt information are combined with the video information. For example, if an image when the pan/tilt has stopped is combined with a 3D graphic based on the pan/tilt information just before it has stopped while the pan/tilt is still operating, the image generated from the 3D graphic (3D graphic image) is generated based on the information while the pan/tilt is operating. As a result, the user feels uncomfortable when the image is combined with the stopped image.
そこで、本発明では、合成した映像が停止している映像と違和感のない映像とするために遅延する時間から差分時間を算出して出力をする撮像装置を提供することを目的としている。 The present invention aims to provide an imaging device that calculates and outputs a difference time from the delay time so that the synthesized image does not look unnatural compared to a still image.
上記目的を達成するために、本発明の一側面としての撮像装置は、周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、撮像部の画角を変更可能なパンチルト部と、撮像部が生成した映像を出力する出力部と、同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有する、ことを特徴とする。 In order to achieve the above object, an imaging device according to one aspect of the present invention is characterized by having an imaging unit that performs image processing on an image captured in accordance with a signal output by a synchronization signal transmission device that transmits a periodic signal, and generates a video, a pan-tilt unit that can change the angle of view of the imaging unit, an output unit that outputs the video generated by the imaging unit, a packet generation unit that acquires status information that is information on the status of the pan-tilt unit when the signal output by the synchronization signal transmission device is detected, and generates a packet including the status information, and a time addition unit that calculates a differential time that is the difference between a first time that is the time when the status information was acquired and a second time that is the time when the packet generation unit outputs the packet, and adds the differential time to the packet.
本発明によれば、合成した映像が停止している映像と違和感のない映像とするために遅延する時間から差分時間を算出して出力をする撮像装置を提供することができる。 The present invention provides an imaging device that calculates and outputs a difference time from the delay time so that the synthesized image does not look unnatural compared to a still image.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。ただし、本発明の実施の形態は以下の実施の形態に限定されるものではない。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。 Below, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. However, the embodiments of the present invention are not limited to the following embodiments. The same or equivalent components, parts, and processes shown in each drawing will be given the same reference numerals, and duplicated explanations will be omitted as appropriate. In addition, some parts that are not important for the explanation will be omitted in each drawing.
<実施形態1>
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステム(撮像システム)は、第1の撮像装置100、第2の撮像装置105、同期信号発信装置106、情報処理装置102、ディスプレイ104を含むように構成される。また、第1の撮像装置100、第2の撮像装置105及び情報処理装置102は、ネットワーク103を介して相互に接続されている。ネットワーク103は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。尚、ネットワーク103は、インターネットや有線LAN(Local Area Network)、無線LAN(WirelessLan)、WAN(Wide Area Network)等により実現されてもよい。
<Embodiment 1>
1 is a diagram showing a system configuration in this embodiment. The system (imaging system) in this embodiment is configured to include a
第1の撮像装置100は、画像を撮像(撮影)する装置である。第1の撮像装置100は、雲台を備え、撮像レンズ及びCCDやCMOS等の撮像センサ(固体撮像素子)等を含み、パン回転やチルト回転をすることで撮像範囲を変更可能な撮像手段として機能する。第1の撮像装置100は、回線及びネットワーク103を介して情報処理装置102等の外部装置と通信可能に接続されている。
The
また、第1の撮像装置100は、後述するパンチルト部によりパン回転やチルト回転することで撮像範囲を変更しつつ画像の撮像を行うことができる。また、第1の撮像装置100は、同期信号発信装置106から同期信号を受信したタイミングで、当該撮像センサにて画像をとらえ画像処理を行い、映像を生成する。生成した映像は映像信号に変換され回線を介して情報処理装置102へ出力される。また、映像を出力した際のパンチルト部203の制御値(パンチルト情報)を、ネットワーク103を介し、情報処理装置102等の外部装置へ送信(送付)する。回線としては、例えば、HDMI(登録商標)(High Definition Multimed iaInterface)等の通信規格に準拠したケーブルである。
The
第1の撮像装置100は、不図示であるが中央演算処理装置としてのCPU(Central Processing Unit)やRAM(andom Access Memory)やROM(Read-Only Memory)等のメモリを備える。当該CPUは、撮像装置の各構成要素に回線を介して接続され、ROM(Read-Only Memory)に格納されたコンピュータプログラムに従って、撮像装置全体の各構成要素の動作調整などを統括的に制御する。
The
情報処理装置102は、例えば、後述する処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ(PC)等のクライアント装置である。情報処理装置102は、不図示であるがCPUやMPU等の1つ以上のプロセッサ、RAMやROM等のメモリ、HDD、各I/Fのドライバ等を備える。
The
CPUは、中央演算装置であり、各種処理のための演算や論理判断等を行い、情報処理装置102における各構成要素を統括的に制御する。ROMは、プログラムメモリであって、CPUによる制御のためのコンピュータプログラムを格納する。RAMは、CPUの主メモリ、ワークエリア等の一時記憶領域として用いられる。尚、情報処理装置102に接続された外部記憶装置等からRAMにプログラムをロードすることで、プログラムメモリを実現しても構わない。
The CPU is a central processing unit that performs calculations and logical judgments for various processes and generally controls each component of the
HDDは、電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD-ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバー装置等であってもよい。 The HDD is a hard disk for storing electronic data and programs. An external storage device may also be used to fulfill a similar role. Here, the external storage device may be realized, for example, by a medium (recording medium) and an external storage drive for realizing access to the medium. Examples of such media include flexible disks (FDs), CD-ROMs, DVDs, USB memories, MOs, and flash memories. The external storage device may also be a server device connected via a network.
I/F部は、着脱可能なデバイスと接続するためのインタフェースであり、例えば、電源と、着脱可能デバイスを着脱するための着脱ソケット等の装着機構を含む。情報処理装置102は、I/F部を介して着脱可能なデバイスとの間のデータ通信を行う。また不図示であるが、本システムにおいては、情報処理装置102と回線を介して接続される操作部も有する。操作部は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。尚、操作部は情報処理装置102と回線を介して接続される外部デバイスであるが、操作部は、情報処理装置102と同じ筐体に設けられてもよい。
The I/F unit is an interface for connecting to a removable device, and includes, for example, a power source and an attachment mechanism such as a removable socket for attaching and detaching the removable device. The
ディスプレイ(表示部)104は、LCD(LiquidCrystalDisplay)等により構成されており、情報処理装置102で合成された映像などを表示する表示手段として機能する。ディスプレイ104は、情報処理装置102と回線を介して通信可能に接続されており、実施形態1では、回線として例えば、HDMI(登録商標)等の通信規格に準拠したディスプレイケーブルを介して情報処理装置102と接続されている。実施形態1では、ディスプレイ104は情報処理装置102と回線を介して接続されている外部デバイスであるが、ディスプレイ104は、情報処理装置102と同じ筐体に設けられてもよい。
The display (display unit) 104 is configured with an LCD (Liquid Crystal Display) or the like, and functions as a display means for displaying images and the like synthesized by the
第2の撮像装置105は、画像を撮像(撮影)する装置である。第2の撮像装置105は、雲台を備え、撮像レンズ及びCCDやCMOS等の撮像センサ(固体撮像素子)等を含み、パン回転やチルト回転をすることで撮像範囲を変更可能な撮像手段として機能する。第2の撮像装置105は、回線及びネットワーク103を介して情報処理装置102等の外部装置と通信可能に接続されている。また、第2の撮像装置105は、後述するパンチルト部によりパン回転やチルト回転することで撮像範囲を変更しつつ画像の撮像を行うことができる。また、第2の撮像装置105は、同期信号発信装置106から同期信号を受信したタイミングで、当該撮像センサにて画像をとらえ画像処理を行い、映像を生成する。生成した映像は映像信号に変換され回線を介して情報処理装置102へ出力される。また、映像を出力した際のパンチルト部203の制御値(パンチルト情報)を、ネットワーク103を介し、情報処理装置102等の外部装置へ送信する。
The
尚、実施形態1に係るシステムでは、第1の撮像装置100及び第2の撮像装置105はそれぞれ1つとして説明するが、2以上であってもよい。即ち、2台以上の第1の撮像装置100や第2の撮像装置105が回線やネットワーク103を介して情報処理装置102と接続され、映像信号を情報処理装置102へ送信する構成とすることができる。
In the system according to the first embodiment, the
同期信号発信装置106は、第1の撮像装置100及び第2の撮像装置105に映像310の撮像される周波数と同様の周波数で信号(同期信号)を出力し、第1の撮像装置100と第2の撮像装置105の撮像画像が作成されるタイミングを通知する。具体的には、同期信号発信装置106は、第2の撮像装置105、第1の撮像装置100と第2の撮像装置105の映像信号の発信タイミングを電気的な信号で発信する。第1の撮像装置100と第2の撮像装置105は、同期信号発信装置106から出力される信号を受信したタイミングで撮像処理を行い、フレーム時間の幅の中で、同一のタイミングで撮像した映像310を出力する。即ち、同期信号発信装置106によって、複数の撮像装置の撮像処理のタイミングと同じタイミングとすることができる。
The synchronization
図2は、実施形態1に係るシステムの機能ブロックを示す図である。具体的には、第1の撮像装置100及び情報処理装置102の機能ブロックの一例を示している。尚、図2に示す各撮像装置及び情報処理装置102の各機能は、次のようにして実現されるものとする。即ち、各撮像装置、情報処理装置102それぞれに備えるROMに格納されたコンピュータプログラムを第1の撮像装置100または第2の撮像装置105のCPUが実行することで実現される。ここで、上記では、第1の撮像装置100または第2の撮像装置105のCPUとしたが、撮像装置が3つ以上の場合であっても同様である。尚、撮像装置側の各機能と情報処理装置側の各機能とは、夫々の装置におけるCPUが夫々の装置に備えるROMに格納されたコンピュータプログラムを実行することで実現してもよい。
FIG. 2 is a diagram showing the functional blocks of the system according to the first embodiment. Specifically, an example of the functional blocks of the
実施形態1における第1の撮像装置100は、撮像処理部(撮像制御部)201と、通信処理部(通信制御部)202を有する。実施形態1では撮像処理部201と通信処理部202はそれぞれ異なるCPUを有し、機内通信で撮像処理部201と通信処理部202との相互の通信を行っている。尚、撮像処理部201、通信処理部202は同一CPUによって処理され、別コアで処理される実施形態や、同一CPU内でソフト的なモジュールの分割であってもよい。
The
まず、撮像処理部201の構成について述べる。撮像処理部201は、パンチルト部203、情報保持部(パンチルト情報保持部)204、時間提供部205、撮像部206、映像信号出力部207を含むように構成される。
First, the configuration of the
パンチルト部203は、撮像部206をモータ駆動によってパン方向(左右方向)、チルト方向(上下方向)に駆動させ、第1の撮像装置100が撮像する際の画角を変更可能な機構(パンチルト機構)として機能する。
The
情報保持部204は、同期信号発信装置106からの電気信号によるタイミングを撮像部206からの通知によって検知し、パンチルト部203からパンチルト情報を取得し、カメラ側の時間提供部205からパンチルト情報取得時間(第1の時間)を取得する。ここで、パンチルト情報は、パンチルト部203(または撮像部206)の現在の画角であるパンチルト情報の情報を含むパンチルト部203の状態情報である。また、パンチルト情報取得時間はパンチルト情報を取得したタイミングにおける時間である。情報保持部204は、パンチルト情報及びパンチルト情報取得時間をそれぞれ保持する。また、情報保持部204は、取得したパンチルト情報とパンチルト情報取得時間を保機内通信によって通信処理部202へ送信する。
The
時間提供部205は、後述するネットワーク(通信処理部202)側の時間提供部209と同期をとり同一の基準となる時刻(同期した時間)を提供可能とするカメラ(撮像処理部201)側の時間提供部である。時間提供部205は、上記のように情報保持部204に対しパンチルト情報取得時間を送信する。
The
撮像部206は、撮像素子から得られたセンサ情報を画像処理し画像として出力する。また、撮像部206は同期信号発信装置106から電気的な信号(同期信号)を受信し、受信タイミングに合わせて撮像を開始する。撮像部206は、同期信号発信装置106から出力されるタイミングで撮像処理(画像処理)を行い、フレーム時間の幅の中で、同じタイミングで撮像した映像310を生成する。また、第1の撮像装置100に加え第2の撮像装置105にも同様の電気的な信号を受信し、信号に合わせて撮像を行うことで、第2の撮像装置105と同じタイミングでの撮像や、撮像した各画像に基づいた映像である映像310の生成を可能とする。
The
映像信号出力部207は、撮像部206で生成された映像310を映像信号に変換し、映像信号に変換した映像310を情報処理装置102に出力する。尚、映像信号出力部207は、同期信号発信装置106が出力する信号に合わせて(同期して)映像信号に変換した映像310を情報処理装置102に出力する。
The video
次に、通信処理部202の構成について述べる。通信処理部202は、パケット生成部208、時間提供部209、時間付加部(パンチルト時間付加部)210、通信部211を含むように構成される。
Next, the configuration of the
パケット生成部208は、情報保持部204からパンチルト情報を受け取った後、ネットワーク103を介して情報処理装置102が受信することが可能なパケット形式へ当該パンチルト情報を変換(データを成形)してパケットを生成する。この時、パンチルト情報に付加されているパンチルト情報取得時間はパケットに含まず、即ちパケット形式に変換せずに時間付加部210へと送信する。
After receiving the pan-tilt information from the
時間提供部209は、カメラ側の時間提供部205と同期をとり同一の基準となる時刻を提供可能とするネットワーク(通信処理部202)側の時間提供部である。実施形態1ではネットワーク側の時間提供部209とカメラ側の時間提供部205とでそれぞれ時間経過を更新する仕組みを持つ。例えば、時間提供部205は、共有メモリを保持しそれぞれの時間を定期的に照会し、ずれが発生した場合は、時間提供部209に合わせて同期することで、時間のずれを抑える仕組みによって時間同期をとる。
The
時間付加部210は、通信部211からパケットが出力される直前に時間提供部209からパケット送付時間(第2の時間)を取得する。そして、当該パケット送付時間とパケット生成部208から送信されるパンチルト情報取得時間とに基づき、パケット送付時間とパンチルト情報取得時間の差分を差分時間401として算出し、差分時間401をパンチルト情報に付加(パケットに付加)する。時間付加部210は、差分時間401をパケットに付加した後、差分時間を付加したパンチルト情報のパケットについて通信部211を介して情報処理装置102へと送信する。実施形態1では、パンチルト情報は、FreeDプロトコルに順守した形でパケットとして成形され情報処理装置102へ送信される。
The time addition unit 210 acquires the packet sending time (second time) from the
通信部211は、撮像装置側の通信部であり、ネットワーク103を介して、第2の撮像装置105や情報処理装置102と各種データの送受信を行う。通信部211は、データの送信として例えば、差分時間410を付加したパンチルト情報のパケットを情報処理装置102に送信する。
The
次に、第2の撮像装置105について述べる。第2の撮像装置105は、第1の撮像装置100と同様の構成、即ち、同様のソフトウェアやハードウェアの構成を有する。また、第2の撮像装置105が取得する差分時間401は、第1の撮像装置100と同様または1フレーム以内の時間であることを想定する。第2の撮像装置105は、上記した第1の撮像装置100と同様に、映像信号に変換した映像310、差分時間401を付加したパンチルト情報のパケットを情報処理装置102へ送信する。
Next, the
次に、情報処理装置102について述べる。情報処理装置102は、回線を介して第1の撮像装置100、第2の撮像装置105から映像信号を取得する。さらに、ネットワーク103を介して、第1の撮像装置100、第2の撮像装置105から差分時間が付加されたパンチルト情報を取得する。実施形態1における情報処理装置102は、3次元グラフィックを生成し、第1の撮像装置100や第2の撮像装置105から送られた映像310と3次元グラフィックを合成するコンテンツを生成する。
Next, the
3次元グラフィック映像を生成する際、3次元グラフィックの座標系内の撮像装置として映像310と合成するため、ネットワーク103から受信したパンチルト情報からバーチャル空間内に撮像装置が存在すると仮定してレンダリングを行う。この際、同一画角になるように画角を計算してレンダリングを行う。そして、レンダリングした映像(3次元グラフィック映像)を受信した映像310と合成することで映像310と3次元グラフィックスで生成した画角を合成した映像を生成する。
When generating a three-dimensional graphic image, rendering is performed on the assumption that an imaging device exists in the virtual space based on the pan-tilt information received from the
実施形態1における情報処理装置102は、通信部212、パンチルト情報描画部213、3次元グラフィック生成部214、映像保持部215、描画合成部216を含むように構成される。
The
通信部212は、情報処理装置102側の通信部であり、ネットワーク103を介して第1の撮像装置100や第2の撮像装置105と各種データの送受信を行う。通信部212は、第1の撮像装置100と第2の撮像装置105からパケットに変換されたパンチルト情報を受信した場合、受信したパンチルト情報をパンチルト情報描画部213へと送信する。
The
パンチルト情報描画部213は、後述する3次元グラフィック生成部214が生成した3次元グラフィックのデータに対して描画を変化させ、3次元グラフィック映像を生成する。具体的には、通信部212から送信された第1の撮像装置100、第2の撮像装置105におけるパンチルト情報に基づき、3次元グラフィックにおけるカメラの画角を決定する。そして、3次元グラフィックのデータに対してレンダリングを行い、3次元グラフィック映像を生成する。
The pan/tilt
3次元グラフィック生成部214は、第1の撮像装置100、第2の撮像装置105から取得した映像310と合成するための3次元グラフィックのデータを生成する。3次元グラフィックのデータを生成後は、パンチルト情報描画部213へ送信する。尚、実施形態1では、3次元グラフィック生成部214ではレンダリングは行わず、上記したようにパンチルト情報描画部213がレンダリングを行う。また、パンチルト情報に基づく3次元グラフィックにおけるカメラの画角を、パンチルト情報描画部213で計算し、3次元グラフィック生成部214で描画を行ってもよい。
The three-dimensional
映像保持部215は、第1の撮像装置100、第2の撮像装置105から送信される映像310をある一定時間保持し、描画合成部216に対して指定された時間の映像310を提供する。
The
描画合成部216は、パンチルト情報描画部213で生成し、決定された画角でレンダリングされた3次元グラフィック映像と、映像保持部215で保持されている映像310を合成し、合成映像を生成(作成)する。合成する際に、パンチルト情報描画部213から、描画に使用したパンチルト情報に対応する差分時間401を受け取り、差分時間401以前の映像310を映像保持部215から取得して合成をする。差分時間401におけるパンチルト情報と映像における差分を合成する際に補正することによってパンチルト情報に対応したパンチルト動作を行っている際の映像310を取得し合成できる。これにより、生成された3次元グラフィック映像と映像310との差異を補正することが可能となり、停止している映像と比べても違和感のない合成映像を取得することができる。
The drawing
図3は、パンチルト情報と映像の差分の情報が無い場合における制御の時間相関を示した図である。図3では、パンチルト情報と映像の差分時間401が発生し、映像とパンチルト情報のパンチルト状態が映像310と差異が発生する様子を時間経過によって示している。図4は、パンチルト情報と映像の差分の情報による情報処理装置での制御の時間相関を示した図である。図4では、差分時間401を送信することによって映像とパンチルト情報が同期をとり差異が補正される様子を時間経過によって示している。以下では、まず図3について説明する。 Figure 3 is a diagram showing the time correlation of control when there is no information on the difference between pan/tilt information and the image. In Figure 3, a difference time 401 between the pan/tilt information and the image occurs, and the state in which a difference occurs between the pan/tilt state of the image and the pan/tilt information and the image 310 over time is shown. Figure 4 is a diagram showing the time correlation of control in an information processing device based on the pan/tilt information and the information on the difference between the image. In Figure 4, the state in which the image and the pan/tilt information are synchronized and the difference is corrected over time by transmitting the difference time 401 is shown. Below, Figure 3 will first be described.
図3に示す横軸は時間軸を示しており、第1の撮像装置100と情報処理装置102におけるデータ流れを示している。nは、任意のフレーム番号を示しており、図3ではn+12までの映像310が出力されたことを示している。映像信号の経路308で示されている映像処理時間301は、撮像部206で画像処理された映像310が映像信号出力部207から出力されるまでの時間を示している。パンチルト情報の経路309は、nからn+11までのパンチルト情報が生成されるまでの時間を示しており、3フレーム分のパンチルト情報が並列に生成される。パンチルト情報が生成されるまでの時間は、パンチルト取得時間302、機内通信時間303、パケット生成時間304、パケット出力時間305の合計で示されている。
The horizontal axis in FIG. 3 indicates the time axis, and shows the data flow in the
パンチルト取得時間302は、パンチルト情報が生成されるまでの時間と、情報保持部204がパンチルト部203から情報を取得しパンチルト情報を生成し、パケット生成部208まで送信するまでの時間を示している。機内通信時間303は、撮像処理部201の情報保持部204から通信処理部202のパケット生成部208までパンチルト情報が通信される時間を示している。パケット生成時間304は、パケット生成部208がパンチルト情報からパケットを生成し、時間付加部210が差分時間401を付加するまでの時間を示している。パケット出力時間305は、差分時間401を付加したパケットを出力するまでの時間を示している。
Pan/tilt acquisition time 302 indicates the time until pan/tilt information is generated and the time until the
図3では、差分時間401を付加しないこれまでの方法でパケットを生成した場合、機内通信時間303はSPIやPCIeといった、機内通信の種類や頻度などによって時間のかかり方が変わってくる。尚、実施形態1では速度が遅い通信形式によって通信していることを想定しているため、通信に時間がかかっていると想定している。また、パケット生成時間304、パケット出力時間305は、通信処理部202の定常的な処理負荷や優先順位などによって異なるが、実施形態1では、生成や出力に時間がかかっている場合を想定している。
In FIG. 3, when a packet is generated using a conventional method that does not add differential time 401, the in-flight communication time 303 varies depending on the type and frequency of in-flight communication, such as SPI or PCIe. Note that in the first embodiment, it is assumed that communication takes time because it is assumed that communication is performed using a slow communication format. Also, the packet generation time 304 and packet output time 305 vary depending on the steady-state processing load and priority of the
情報処理装置102では、映像310とパンチルト情報を受け取り、合成するまでの時間を示している。映像310は、情報保持部204が映像信号出力部207から出力された映像310を保持するまでの時間を示している。パンチルト情報描画部213の時間311は、情報処理装置102がパンチルト情報を取得してから、パンチルト情報描画部213で3次元グラフィックを用いて描画を行うまでの時間を示している。描画合成部216の時間312は、描画合成部216がパンチルト情報描画部213で描画された3次元グラフィック映像と、映像保持部215で保持された映像310を合成する時間と、合成されたフレーム番号をnからn+11で示している。
In the
ここで、差分時間401が送信されず、直前に取得したパンチルト情報と映像310から合成画像を生成する場合を想定する。この時、現在取得している情報から描画された映像と映像保持部215で保持されている映像とが計算されずにそれぞれ通知された場合、映像保持部215で保持されている映像310と合成すればよいかわからない状態になってしまう。例えば、受け取っている最新の映像310とパンチルト情報に基づき合成すると、パンチルト情報は2フレームのずれをもって受け取るため、生成される映像は2フレーム分の差異が発生するものとなる。こうした映像ではパンチルトの停止の直前直後など急激な変化が映像に発生した場合、パンチルト情報描画部213で描画された映像と、映像保持部215で保持された映像310に差異が発生してしまう。従って、このような差異を発生させないためには、情報処理装置102のパンチルト情報描画部213で描画された3次元グラフィック映像と映像保持部215で保持された映像310に基づき、差分時間401を計測して映像をずらす作業が必要となる。
Here, assume that the difference time 401 is not transmitted and a composite image is generated from the pan/tilt information and image 310 acquired immediately before. At this time, if the image drawn from the currently acquired information and the image held in the
図4は、実施形態1における提案手法に基づいて差分時間401を時間付加部210に付加してパケットを出力する場合の時間関係を示している。映像信号の経路308、映像310、パンチルト情報描画部の時間311については、図3で示した内容と同様であるため説明を省略する。 Figure 4 shows the time relationship when a differential time 401 is added to the time adding unit 210 based on the method proposed in the first embodiment and a packet is output. The video signal path 308, video 310, and time 311 of the pan/tilt information drawing unit are the same as those shown in Figure 3, so the explanation is omitted.
また、図4では、パンチルト情報の経路309で差分時間401をパケットに追加して送付している。このため描画合成部216の時間312において描画合成部216が差分時間401を取得し、映像保持部215に保持されている映像310のうち、どのフレーム映像がパンチルト情報と対応しているかを判断可能となる。
In addition, in FIG. 4, the difference time 401 is added to the packet and sent via the pan/tilt information path 309. Therefore, at time 312 in the
実施形態1では、2フレームの時間を遅延させた映像310とパンチルト情報に基づいてレンダリングされた映像を合成することで、パンチルト情報に基づいた3次元グラフィック映像と対応したパンチルトをしている映像310と合成が可能となっている。差分時間401は、フレーム番号といった時間差分を計算可能なものであれば厳密な時間でなくてもよい。 In the first embodiment, by synthesizing the image 310 delayed by two frames with the image rendered based on the pan-tilt information, it is possible to synthesize the image 310 with the corresponding pan-tilt and the three-dimensional graphic image based on the pan-tilt information. The difference time 401 does not have to be an exact time as long as the time difference can be calculated using something such as a frame number.
しかしながら実施形態1では、時間を送付することで映像信号が様々なパターンで送信される場合に対応することができる。例えば、撮像部206では同期信号発信装置106で同期され出力されているが、映像信号出力部207で周波数を間引きし出力する場合などにも、時間を送信することで映像とパンチルト情報を同期させることが可能である。尚、実施形態1においては、第2の撮像装置105も同様のハード構成やソフトウェア構成であるため、差分時間401が第1の撮像装置100の差分時間401とほぼ同等となり、大きくずれることはない。
However, in the first embodiment, by sending the time, it is possible to handle cases where the video signal is transmitted in various patterns. For example, in the
こうした差分時間401がほぼ同等の撮像装置間での同期は、映像をいずれの撮像装置向けにも同様に遅延させて合成すればよいため、いずれかの撮像装置のパンチルト情報、映像を同期させ、合成映像を作ることが可能となる。また、実施形態1において、差分時間401は1フレームの時間よりも大きな時間(所定の時間以上)である場合を想定している。1フレームの時間よりも小さな時間である場合は、差分時間401分映像を遅延させて合成する必要は必ずしもない。従って、実施形態1の第1の撮像装置100では、差分時間401が1フレームよりも小さい場合は、差分時間401をパケットに付加して情報処理装置102に送らないことが好ましい。また、実施形態1の情報処理装置102では差分時間401が撮像装置から送られてこない場合、または差分時間401が送られてきたが1フレームよりも小さい場合は、上記の同期処理を行わない。
Synchronization between imaging devices with approximately the same differential time 401 can be achieved by delaying the images for both imaging devices in the same way and synthesizing them, so that the pan/tilt information and images of either imaging device can be synchronized to create a composite image. In addition, in the first embodiment, it is assumed that the differential time 401 is a time greater than the time of one frame (a predetermined time or more). If it is a time less than the time of one frame, it is not necessarily necessary to delay the images by the differential time 401 to synthesize them. Therefore, in the
図5、図6、図7は、実施形態1に係る差分時間410に基づくパンチルト情報と映像310の同期フローを示した図である。 Figures 5, 6, and 7 show the flow of synchronizing the pan-tilt information and the image 310 based on the difference time 410 in embodiment 1.
図5は、実施形態1に係る撮像処理部201における処理フローを示す図である。図6は、実施形態1に係る通信処理部202における処理フローを示す図である。図7は、実施形態1に係る情報処理装置102における処理フローを示す図である。尚、図5、図6の各処理(各動作)は、第1の撮像装置100におけるCPUが第1の撮像装置100、情報処理装置102それぞれのROMに格納されたコンピュータプログラムを実行することによって制御される。また、図7の各処理(各動作)は、情報処理装置102におけるCPUがROMに格納されたコンピュータプログラムを実行することによって制御される。また、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。また、以下の処理に示す撮像装置は第1の撮像装置100として説明するが、第2の撮像装置105でも同様である。
Figure 5 is a diagram showing a processing flow in the
ここで、図5に示す撮像処理部201の処理フローは、映像信号に変換した映像310の出力とパンチルト情報をパケット生成部208に出力するまでの処理を述べている。そして、図5に示す処理全体は周期的に行われている。
The processing flow of the
まず、S1001では、毎周期(所定の周期)でカメラ側の時間提供部205が通信処理部202と時間同期を行う。次に、S1002では、同期信号を受信したか否かを判定する。判定の結果、同期信号を受信した場合は、S1003とS1007に進む。一方、同期信号を受信していない場合は、S1001に戻り、同様の処理周期的に行う。
First, in S1001, the
次に、S1003では、撮像部206の撮像センサに対して撮像取得を指示する。次に、S1004では、撮像部206は、同期信号発信装置106から出力されるタイミングで画像処理を行い、フレーム時間の幅の中で、同じタイミングで撮像した映像310を生成する。次に、S1005では、映像信号出力部207は、撮像部206で画像処理された映像310を映像信号に変換した後、情報処理装置102に出力する。その後、S1001に戻り同様の処理を周期的に行う。
Next, in S1003, an instruction is issued to the imaging sensor of the
次に、S1007では、情報保持部204は、パンチルト部203からパンチルト情報を取得し、カメラ側の時間提供部205からパンチルト情報取得時間を取得する。次に、S1008では、情報保持部204は、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208へ送信する。その後S1001に戻り同様の処理を周期的に行う。尚、S1003とS1007の処理を開始するタイミングは連動していることが好ましいが、S1003とS1007の処理を同時に開始することがより好ましい。
Next, in S1007, the
ここで、図6に示す通信処理部202の処理フローは、パンチルト情報を機内通信で撮像処理部201から受け取り、パケットとして出力するまでの処理を示している。そして、図6に示した撮像処理部201と同様に処理全体は周期的に行われている。
The processing flow of the
まず、S1009では、毎周期(所定の周期)でネットワーク側の時間提供部209が撮像処理部201と時間同期を行う。次に、S1010では、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信したか否かを判定する。判定の結果、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信した場合、S1011に進む。一方、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信していない場合、S1009に戻り同様の処理を周期的に行う。
First, in S1009, the
次に、S1011では、パケット生成部208は、受信したパンチルト情報についてネットワーク103を介し、情報処理装置102が受信することが可能なパケット形式へ変換してパケットを生成する。この時に、パンチルト情報取得時間は、パンチルト情報が含まれる当該パケットには含まないようにして時間付加部210へと送信する。
Next, in S1011, the
次に、S1012では、時間付加部210は、ネットワーク側の時間提供部209からパケット送付時間を取得する。次に、S1013では、時間付加部210は、S1012で取得したパケット送付時間と、S1011でパケット生成部208から送信されたパンチルト情報取得時間とに基づき、差分時間401を算出する。
Next, in S1012, the time addition unit 210 acquires the packet sending time from the
次に、S1014では、S1013で算出した差分時間401が現在出力されている映像の1フレーム間の時間よりも大きいか否かを判定する。判定の結果、差分時間401が現在出力されている映像の1フレーム間の時間よりも大きい場合は、S1015に進む。一方、差分時間401が現在出力されている映像の1フレーム間の時間よりも小さい場合は、S1016に進む。 Next, in S1014, it is determined whether the difference time 401 calculated in S1013 is greater than the time between one frame of the video currently being output. If the result of the determination is that the difference time 401 is greater than the time between one frame of the video currently being output, the process proceeds to S1015. On the other hand, if the difference time 401 is less than the time between one frame of the video currently being output, the process proceeds to S1016.
次に、S1015では、時間付加部210は、差分時間401をパンチルト情報が付加されているパケットに付加する。次に、S1016では、時間付加部210は、差分時間を付加していないパケットを情報処理装置102に送信する。その後、S1009に戻り同様の処理を周期的に行う。
Next, in S1015, the time addition unit 210 adds the differential time 401 to the packet to which the pan/tilt information has been added. Next, in S1016, the time addition unit 210 transmits the packet to which the differential time has not been added to the
ここで、図7に示す情報処理装置102の処理フローは、撮像処理部201から送信された映像310と通信処理部202から送信された差分時間401が付加されているパンチルト情報と、を用いて同期した合成映像を生成するまでの処理を示している。
Here, the processing flow of the
まず、S1017では、情報処理装置102は、撮像処理部201の映像信号出力部207から映像310を受信する。次に、S1018では、S1017で受信した映像310を映像保持部215へ保持する。次に、S1019では、通信部212は、時間付加部210より送信されたパンチルト情報を受信する。その後、通信部212は、受信したパンチルト情報をパンチルト情報描画部213へと送信する。
First, in S1017, the
次に、S1020では、3次元グラフィック生成部214は、3次元グラフィックを生成し、生成した3次元グラフィックのデータをパンチルト情報描画部213に送信する。次に、S1021では、パンチルト情報描画部213は、通信部212から送信されたパンチルト情報を反映して3次元グラフィックのデータに対してレンダリングを行い、3次元グラフィック映像を生成する。
Next, in S1020, the three-dimensional
次に、S1022では、パンチルト情報に差分時間401が付加されているか否かを判定する。パンチルト情報に差分時間401が付加されている場合は、S1023に進む。一方、パンチルト情報に差分時間401が付加されていない場合は、S1025に進む。 Next, in S1022, it is determined whether or not the differential time 401 has been added to the pan-tilt information. If the differential time 401 has been added to the pan-tilt information, the process proceeds to S1023. On the other hand, if the differential time 401 has not been added to the pan-tilt information, the process proceeds to S1025.
次に、S1023では、描画合成部216は、パンチルト情報描画部213から描画に使用したパンチルト情報に対応する差分時間401を取得する。次に、S1024では、描画合成部216は、差分時間401分以前の映像、即ち、過去に遡った映像310を映像保持部215から選択する。次に、S1025では、パンチルト情報に差分時間401が付加されていないため、最新の映像310を選択する。
Next, in S1023, the drawing
次に、S1026では、描画合成部216は、レンダリングされた3次元グラフィック映像と、選択された映像310とを合成して合成映像を生成する。次に、S1027では、S1026で合成映像を生成した段階で映像保持部215に保持されている過去の映像310は不要となるため、選択されたより過去の映像310を削除する。次に、S1028では、S1026で生成した合成映像を結果として外部装置等に出力する。尚、出力された合成映像は、例えばディスプレイ(表示部)104に任意の形式で表示してもよい。これによりユーザは、時間的な差異のない合成映像であって、合成した際に映像のパンチルト状況と同じパンチルト状況の合成映像を視認することができる。
Next, in S1026, the drawing
差分時間が同様の時間になる第1の撮像装置100と第2の撮像装置105では映像が同期信号発信装置106の信号によって同期しているため、同様の処理を情報処理装置102で行うことで、それぞれの映像とパンチルト情報を同期させることが可能となる。
Since the images of the
以上の処理によって同期信号発信装置106の信号によって同期をとっている各撮像装置の映像と、パケットによって出力されるパンチルト情報に基づいて生成される3次元グラフィックの映像とを同期させることができる。そして、当該映像と当該3次元グラフィックの映像とを合成することで、時間的な差異のなく、映像のパンチルト状況と同じパンチルト状況の合成映像を生成可能なシステムを提供することができる。
By performing the above process, it is possible to synchronize the images of each imaging device, which is synchronized by the signal from the
<実施形態2>
次に、図8から図19を参照し、本発明の実施形態2のシステムについて説明する。実施形態2では、第1の撮像装置100と第2の撮像装置105といった各撮像装置間でパンチルト情報を共有することで、情報処理装置102が各撮像装置における差分時間401を考慮することなく、映像310とパンチルト情報との同期を行う。
<Embodiment 2>
Next, a system according to a second embodiment of the present invention will be described with reference to Fig. 8 to Fig. 19. In the second embodiment, pan-tilt information is shared between each imaging device, such as the
実施形態2では、実施形態1の場合と同様の構成要素については既に使用した符号を用いることで、それらの詳細な説明を省略する。そして、実施形態2では、撮像映像保持部801、パケット受信部802、遅延映像信号出力部803、及び実施形態1と異なる制御を行う第2の時間付加部(第2のパンチルト時間付加部)804を中心に説明する。
In the second embodiment, the same components as those in the first embodiment are designated by the same reference numerals already used, and detailed description thereof will be omitted. In the second embodiment, the description will focus on the captured
図8と図9は、実施形態2におけるシステム構成を示す図である。具体的には、図8は、差分時間が撮像装置間で差分(差異)があるシステム構成を示す図であり、図9は、差分時間を同期した撮像装置と情報処理装置のシステム構成を示す図である。図8では、実施形態1における図1の構成とは異なる第3の撮像装置601について、第1の撮像装置100、第2の撮像装置105との差分を示すことで説明を行う。
Figures 8 and 9 are diagrams showing the system configuration in the second embodiment. Specifically, Figure 8 is a diagram showing a system configuration in which there is a difference (difference) in the differential time between imaging devices, and Figure 9 is a diagram showing the system configuration of an imaging device and an information processing device in which the differential time is synchronized. In Figure 8, a
図8では、第1の撮像装置100における差分時間を第1の差分時間602、第2の撮像装置105における差分時間を第2の差分時間603、第3の撮像装置601における差分時間を第3の差分時間604として示している。尚、以下では図8と図9に示すシステムにおいて、各撮像装置の第1の差分時間602、第2の差分時間603、第3の差分時間604が大きく異なるものとして説明する。
In FIG. 8, the differential time in the
情報処理装置102に接続される撮像装置の数が多く、またそれらの差分時間401が異なる場合、情報処理装置102で同期する対象が増える。この時、パンチルト情報の差分時間401を情報処理装置102が受け取り、映像310を一定時間遅延して合成することで個々の撮像装置のおける映像310とパンチルト情報は同期をとることは可能である。しかし、情報処理装置102に接続される撮像装置の数が多い程、各撮像装置間の映像310、パンチルト情報のすべてにおいて同期をとることが困難となる。
When there are a large number of imaging devices connected to the
そこで本実施形態のシステムでは、複数の撮像装置の中から、差分時間の最も大きな撮像装置に合わせて、すべての撮像装置がパケットの出力と映像の出力を遅延させる。この時、各撮像装置は、算出した差分時間401をそのままパケットに付加せず、新たに実差分時間704として各撮像装置に自身の差分時間を送信し、各撮像装置間で実差分時間704を共有するように制御される。その後、各撮像装置は、受け取った実差分時間704の中で最も大きな実差分時間704をパンチルト情報も含まれているパケットに付加する差分時間401として決定する。そして、決定された実差分時間704を当該パケットに付加して情報処理装置102に送信する。
Therefore, in the system of this embodiment, all imaging devices delay the packet output and image output to match the imaging device with the largest differential time among the multiple imaging devices. At this time, each imaging device does not add the calculated differential time 401 to the packet as is, but transmits its own differential time to each imaging device as a new actual
この時、実差分時間704は付加されたパケットを情報処理装置102に送信する際に、実差分時間704と、その撮像装置で計算した差分時間401との差分を計算し、当該差分の分パケットと映像310の出力を遅延させて情報処理装置102に送信する。そして、映像310は、最も大きな差分時間(最大差分時間)分遅らせて情報処理装置102に送信する。これにより情報処理装置102ではパンチルト情報と映像310とが同期した状態で得ることが可能となる。
At this time, when transmitting the packet to which the
図9では、第3の撮像装置601における第3の差分時間604が最も大きな差分時間である場合を示している。そして、第1の撮像装置100における第1の差分時間602がその次に大きな差分時間で、第2の撮像装置105における第2の差分時間603の順で差分時間が一番小さい差分時間である場合を示している。
Figure 9 shows a case where the third
この場合、第1の撮像装置100は、第1の差分時間602を実差分時間704として、第2の撮像装置105と第3の撮像装置601に送信する。第2の撮像装置105は、第2の差分時間603を実差分時間704として、第1の撮像装置100と第3の撮像装置601に送信する。第3の撮像装置601は、第3の差分時間604を実差分時間704として、第1の撮像装置100と第2の撮像装置105に送信する。これにより各撮像装置間で各撮像装置の実差分時間を共有することができる。
In this case, the
その後、最も大きな差分時間である第3の撮像装置601の実差分時間704(第3の差分時間604)を、各撮像装置は情報処理装置102に送信するパケットに付加する。即ち、第1の撮像装置100は、第1の撮像装置におけるパケット701に実差分時間704を付加する。第2の撮像装置105は、第2の撮像装置におけるパケット702に実差分時間704を付加する。第3の撮像装置601は、第3の撮像装置におけるパケット703に実差分時間704を付加する。そして、それぞれのパケットを情報処理装置102に送信する際に、各撮像装置は実差分時間704と、その撮像装置で計算した差分時間との差分を計算し、当該差分の分、パケットと映像310の出力を遅延させて情報処理装置102に対しそれぞれ送信する。また、各撮像装置における映像310は、実差分時間704分遅らせて情報処理装置102に対しそれぞれ送信する。これにより、各撮像装置は映像310とパケットの出力を遅延させることができる。
Then, each imaging device adds the actual difference time 704 (third difference time 604) of the
図10は、実施形態2に係るシステムの機能ブロックを示す図である。具体的には、第1の撮像装置100及び第2の撮像装置105の機能ブロックの一例を示している。尚、図8に示す各撮像装置及び情報処理装置102の各機能は、実施形態1と同様にROMに格納されたコンピュータプログラムを第1の撮像装置100または第2の撮像装置105のCPUが実行することで実現される。
Fig. 10 is a diagram showing functional blocks of a system according to the second embodiment. Specifically, an example of functional blocks of the
パケット受信部802は、撮像装置側の通信部211から他の撮像装置の実差分時間704を受け取り、第2の時間付加部804から自身の実差分時間である差分時間401を受け取る。そして、他の撮像装置から取得した実差分時間704と差分時間401とを比較する。パケット受信部802は、比較の結果、最も大きな差分時間を第2の時間付加部804と撮像映像保持部801に送信する。
The
第2の時間付加部804は、パケットに付加する差分時間として、パケット受信部802から送信された最も大きな差分時間をパケットに付加し、パケットを送信する。また、パケットを送信する際に、最も大きな差分時間と自身の差分時間401の差分を計算し、算出した差分分遅延させてパケットを出力する。第2の時間付加部804は、遅延させるため、複数回分のパンチルト情報を保持し適切な時間のパンチルト情報を選択してパケットとして送信する。
The second
撮像部206の制御は実施形態1と同様であるが、映像310は映像信号出力部207ではなく撮像映像保持部801へ送信する。撮像映像保持部801は、パケット受信部802から最も大きな差分時間を受け取り、最も大きな差分時間分遅らせた映像310を遅延映像信号出力部803へ送信する。遅延映像信号出力部803は、撮像映像保持部801から送信された最も大きな差分時間分遅らせた映像を映像信号へと変換して情報処理装置102に出力する。
The control of the
例えば、2台以上ある第2の撮像装置105、第3の撮像装置601も同様の構成を保持することで、最も大きな差分時間に同期した映像310とパンチルト情報を情報処理装置102へ送信することが可能となる。尚、図8では例示として、第1の撮像装置100と第2の撮像装置105の構成を図示しているが、第3の撮像装置601、またそれ以外の同様の構成を保持する異なる撮像装置でも同様に同期をとることが可能となる。
For example, if two or more
図11、図12、図13は、図8に示す各撮像装置が異なる差分時間401によって動作し、実施形態1で説明した同期処理を行った場合を示している図である。図14は、差分時間に差がある場合の情報処理装置での制御の時間相関を示した図である。図11、図12、図13では、第3の撮像装置601の第3の差分時間604が、第1の撮像装置100の第1の差分時間602よりも1フレーム以上時間が長い状態を示している。
Figures 11, 12, and 13 show a case where each imaging device shown in Figure 8 operates with a different differential time 401 and performs the synchronization process described in embodiment 1. Figure 14 shows the time correlation of control in an information processing device when there is a difference in differential time. Figures 11, 12, and 13 show a state where the third
さらに、第2の撮像装置105の第2の差分時間603が第1の撮像装置100の第1の差分時間602よりも1フレーム以上時間が短い状態を示している。この場合において、各撮像装置の各差分時間を保持して情報処理装置102でそれぞれ同期処理を行うことを想定する。この時、情報処理装置102で生成される第1の撮像装置100の合成映像901、第2の撮像装置105の合成映像902、第3の撮像装置601の合成映像903のフレーム番号はそれぞれ1フレーム以上ずれてしまう。これにより、合成映像間の同期がとれていない状態になる。
Furthermore, the second
図15、図16、図17は、各撮像装置における最も大きな差分時間に対応して各撮像装置がパケットと映像を遅延させて出力させた場合の時間関係を示す図である。図15、図16、図17中の時間tは、遅延映像処理時間1001は、撮像映像保持部801で保持した映像を読み取り、遅延映像信号出力部803で出力を行う時間を示している。尚、各撮像装置100内で同期を取る処理を行うため、情報処理装置102に関しては説明を省略する。
Figures 15, 16, and 17 are diagrams showing the time relationships when each imaging device delays and outputs packets and video corresponding to the largest time difference in each imaging device. Time t in Figures 15, 16, and 17 indicates the delayed video processing time 1001, which indicates the time when the video stored in the captured
図15、図16、図17では、映像信号の経路308に加えて、遅延映像1002について示している。さらに、パンチルト情報の経路309に変えて、遅延パンチルト情報の経路1003について示している。遅延映像1002は、映像信号の経路308の時間に加えて第3の撮像装置601の第3の差分時間604分時間を遅延させて遅延映像信号出力部803から出力した様子を示している。最も大きな差分時間に合わせて映像310を出力することで、第1から第3の撮像装置間で映像310のフレームが一致する。
In Figures 15, 16, and 17, in addition to the video signal path 308, delayed video 1002 is shown. Furthermore, instead of the pan/tilt information path 309, delayed pan/tilt information path 1003 is shown. The delayed video 1002 shows how it is output from the delayed video
遅延パンチルト情報の経路1003では、最も大きな差分時間に合わせてパケットの出力を遅延させている様子を示している。最も大きな差分時間に合わせて映像310を出力することで、第1から第3の撮像装置でパケットの出力タイミングが一致する。以上の処理によって映像310とパケット中のパンチルト情報を各撮像装置における最も大きな差分時間に合わせたタイミングで送信することで、パンチルト情報と映像を同期させて情報処理装置102に送信することが可能となる。
The delayed pan/tilt information path 1003 shows how the packet output is delayed to match the largest time difference. By outputting the image 310 to match the largest time difference, the packet output timing is synchronized in the first to third imaging devices. By transmitting the image 310 and the pan/tilt information in the packet with a timing that matches the largest time difference in each imaging device through the above processing, it becomes possible to transmit the pan/tilt information and the image in synchronization with each other to the
図18と図19に示す処理では、各撮像装置の実差分時間704を各撮像装置間で共有し、その中で差分時間が最大となる実差分時間を、最最も大きな差分時間としてパケットに付加する差分時間410として決定する。そして、各撮像装置内で映像310とパンチルト情報のパケットを最も大きな差分時間に対応して遅延して出力させる。これにより、映像310もパンチルト情報も最も大きな差分時間に対応して遅延して情報処理装置102に送信されるため、情報処理装置102は、内部で映像310の保持などを行わず映像310とパンチルト情報の同期を行うことができる。
In the process shown in FIG. 18 and FIG. 19, the
図18は、実施形態2に係る撮像処理部201の処理フローを示す図である。図19は、実施形態2に係る通信処理部202の処理フローを示す図である。尚、情報処理装置102では上記したように同期した映像310とパンチルト情報を受け取り内部的な処理は不要のため、情報処理装置102の処理フローは省略するものとする。また、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。
Fig. 18 is a diagram showing the processing flow of the
ここで、図18に示す撮像処理部201の処理フローは、映像信号に変換した映像310の出力とパンチルト情報をパケット生成部208に出力するまでの処理を述べている。そして、図18に示す処理全体は周期的に行われている。
The processing flow of the
まず、S1001では、毎周期(所定の周期)でカメラ側の時間提供部205が通信処理部202と時間同期を行う。次に、S1002では、同期信号を受信したか否かを判定する。判定の結果、同期信号を受信した場合は、S1003とS1007に進む。一方、同期信号を受信していない場合は、S1001に戻り、同様の処理周期的に行う。
First, in S1001, the
次に、S1003では、撮像装置の撮像センサに対して撮像取得を指示する。次に、S1004では、撮像部206は、同期信号発信装置106から出力されるタイミングで画像処理を行い、フレーム時間の幅の中で、同じタイミングで撮像した映像310を生成して、撮像映像保持部801へと出力する。
Next, in S1003, an instruction to capture an image is issued to the imaging sensor of the imaging device. Next, in S1004, the
次に、S1101では、撮像映像保持部801は、撮像部206から出力した映像310を保存する。次に、S1102では、撮像映像保持部801は、パケット受信部802から最も大きな差分時間を取得する。次に、S1103では、撮像映像保持部801に保存されている複数の映像310の中から最も大きな差分時間以前の映像、即ち過去に遡った映像を選択する。
Next, in S1101, the captured
次に、S1104では、S1102で選択した映像310を遅延映像信号出力部803から情報処理装置102に出力する。次に、S1105では、S1102で選択された映像310よりも以前に記録された映像を撮像映像保持部801から削除する。その後、S1001に戻り、同様の処理周期的に行う
Next, in S1104, the image 310 selected in S1102 is output from the delayed image
次に、S1007では、情報保持部204は、パンチルト部203からパンチルトに関するパンチルト情報を取得し、カメラ側の時間提供部205からパンチルト情報取得時間を取得する。次に、S1008では、情報保持部204は、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208へ送信する。その後S1001に戻り同様の処理を周期的に行う。尚、S1003とS1007の処理を開始するタイミングは連動していることが好ましいが、S1003とS1007の処理を同時に開始することがより好ましい。
Next, in S1007, the
ここで、図19に示す通信処理部202の処理フローは、他の撮像装置からパケットを受け取り最も大きな差分時間を求める処理と、パンチルト情報を機内通信で撮像処理部201から受け取り、パケットとして出力するまでの処理を示している。そして、図19に示す処理全体は周期的に行われている。
The processing flow of the
まず、S1009では、毎周期(所定の周期)でネットワーク側の時間提供部209が撮像処理部201と時間同期を行う。次に、S1111では、他の撮像装置から差分時間を取得したか否かを判定する。他の撮像装置から差分時間を取得した場合は、S1112に進む。一方、他の撮像装置から差分時間を取得していない場合、S1009に戻り同様の処理を行う。ここでいう他の撮像装置からの差分時間とは他の撮像装置における実差分時間704である。
First, in S1009, the
次に、S1112では、他の撮像装置から取得した差分時間が、自身の差分時間より大きいか否かを比較する。比較の結果、他の撮像装置から取得した差分時間が、自身の差分時間より大きい場合は、S1113に進む。一方、他の撮像装置から取得した差分時間が、自身の差分時間より小さい場合は、S1009に戻り同様の処理を周期的に行う。 Next, in S1112, a comparison is made to see whether the difference time acquired from the other imaging device is greater than the device's own difference time. If the comparison result shows that the difference time acquired from the other imaging device is greater than the device's own difference time, the process proceeds to S1113. On the other hand, if the difference time acquired from the other imaging device is smaller than the device's own difference time, the process returns to S1009 and the same process is periodically performed.
次に、S1112では、差分時間の更新を行う。これにより他の装置のいずれかの差分時間が最も大きな差分時間ということが分かり、接続されている各撮像装置間における最も大きな差分時間を各撮像装置が保持することができる。 Next, in S1112, the differential time is updated. This allows the system to determine which of the other devices has the largest differential time, and each imaging device can store the largest differential time between the connected imaging devices.
次に、S1010では、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信したか否かを判定する。判定の結果、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信した場合、S1011に進む。一方、パンチルト情報とパンチルト情報取得時間を機内通信でパケット生成部208が受信していない場合、S1009に戻り同様の処理を周期的に行う。
Next, in S1010, it is determined whether or not the
次に、S1006では、機内通信で受信したパンチルト情報を保存する。次に、S1012では、時間付加部210は、ネットワーク側の時間提供部209からパケット送付時間を取得する。次に、S1013では、時間付加部210は、S1012で取得したパケット送付時間と、S1011でパケット生成部208から送信されたパンチルト情報取得時間とに基づき、差分時間401を算出する。
Next, in S1006, the pan/tilt information received via in-flight communication is stored. Next, in S1012, the time addition unit 210 acquires the packet sending time from the
次に、S1107では、S1013で算出した差分時間401が最も大きな差分時間よりも大きいか否かを比較する。比較の結果、S1013で算出した差分時間401が最も大きな差分時間よりも大きい場合はS1108に進む。一方、S1013で算出した差分時間401が最も大きな差分時間よりも小さい場合は、S1109に進む。 Next, in S1107, a comparison is made to see whether the difference time 401 calculated in S1013 is greater than the largest difference time. If the comparison result shows that the difference time 401 calculated in S1013 is greater than the largest difference time, the process proceeds to S1108. On the other hand, if the difference time 401 calculated in S1013 is less than the largest difference time, the process proceeds to S1109.
次に、S1108では、S1013で算出した差分時間401を最も大きな差分時間とするように差分時間を更新する。次に、S1109では、最も大きな差分時間と自身の差分時間401の差分を計算し、算出した時間よりも前のパンチルト情報を取得する。 Next, in S1108, the difference time is updated so that the difference time 401 calculated in S1013 becomes the largest difference time. Next, in S1109, the difference between the largest difference time and the own difference time 401 is calculated, and pan/tilt information from before the calculated time is obtained.
次に、S1011では、パケット生成部208は、受信したパンチルト情報についてネットワーク103を介して情報処理装置102が受信することが可能なパケット形式へ変換して、パケットを生成する。この時に、パンチルト情報取得時間は、パンチルト情報が含まれる当該パケットには含まないようにして時間付加部210へと送信する。
Next, in S1011, the
次に、S1110では、第2の時間付加部804は、最も大きな差分時間をパンチルト情報が付加されているパケットに付加する。次に、S1016では、第2の時間付加部804は、最も大きな差分時間が追加されたパケットを情報処理装置102に送信する。次に、S1114では、S1109で取得したパンチルト情報よりも以前に保持されたパンチルト情報を削除する。その後、S1009に戻り同様の処理を周期的に行う。
Next, in S1110, the second
以上の処理によれば、同期信号発信装置106の信号によって同期をとっている撮像装置の映像310と、パケットによって出力されるパンチルト情報を各撮像装置が同一の差分時間に基づいて出力することができる。そのため、情報処理装置102では映像310とパンチルト情報に時間的な同期が取れた状態で受け取ることができる。以上の状態で生成される3次元グラフィック映像と撮像装置の映像310を合成することで複数の撮像装置の映像と3次元グラフィック映像を同期して出力することが可能なシステムを提供することができる。
According to the above processing, each imaging device can output the image 310 of the imaging device synchronized by the signal from the synchronization
尚、実施形態1と実施形態2では、遅延映像信号出力部803と映像信号出力部207は異なるものとして説明しているが、上記した機能をいずれも備えている一つの出力部として構成してもよい。また、実施形態1と実施形態2の各撮像装置は、遅延映像信号出力部803と映像信号出力部207のどちらを備えていてもよい。また、その場合、映像310やパケットの遅延を行うか、行わないかを選択可能な構成としてもよい。また、これらの構成を複数保持し、出力する映像310をユーザ操作によって出力方法を選択や切り替え可能に構成しても。
In the first and second embodiments, the delayed video
上記の各実施形態ではパン及びチルトを対象としていたが、映像の画角に影響を及ぼすモータ駆動系についてもパンチルト情報に同様に付加することで画角の同期を行うことができる。 In the above embodiments, the focus was on panning and tilting, but the angle of view can also be synchronized by adding information about the motor drive system, which affects the angle of view of the image, to the pan-tilt information in a similar manner.
本実施形態の開示は、以下の構成、方法、及びプログラムを含む。 The disclosure of this embodiment includes the following configuration, method, and program.
(構成1)
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
撮像部の画角を変更可能なパンチルト部と、
撮像部が生成した映像を出力する出力部と、
同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、
状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有する、
ことを特徴とする撮像装置。
(Configuration 1)
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs the packet, and adds the difference time to the packet.
1. An imaging device comprising:
(構成2)
同期した時間を提供する時間提供部を有し、
時間付加部は、第2の時間を時間提供部から取得することを特徴とする構成1に記載の撮像装置。
(Configuration 2)
A time providing unit that provides a synchronized time;
2. The imaging device according to configuration 1, wherein the time adding section obtains the second time from a time providing section.
(構成3)
状態情報と第1の時間を保持する情報保持部を有することを特徴とする構成2に記載の撮像装置。
(Configuration 3)
3. The imaging device according to configuration 2, further comprising an information storage unit for storing the state information and the first time.
(構成4)
情報保持部は、出力部が映像を出力する際に時間提供部から第1の時間を、時間提供部からは状態情報をそれぞれ取得することを特徴とする構成3に記載の撮像装置。
(Configuration 4)
4. The imaging device according to configuration 3, wherein the information holding unit obtains the first time from the time providing unit and the state information from the time providing unit when the output unit outputs the video.
(構成5)
情報保持部は、同期信号発信装置が出力する信号を撮像部からの通知によって検知し、状態情報を取得することを特徴とする構成3または4に記載の撮像装置。
(Configuration 5)
5. The imaging device according to configuration 3 or 4, wherein the information holding section detects the signal output from the synchronization signal transmission device by notification from the imaging section, and acquires the state information.
(構成6)
出力部は、同期信号発信装置が出力する信号に合わせて映像を出力することを特徴とする構成1乃至5のいずれか1項に記載の撮像装置。
(Configuration 6)
6. The imaging device according to any one of configurations 1 to 5, wherein the output section outputs an image in accordance with a signal output from a synchronization signal transmission device.
(構成7)
時間付加部は、差分時間が映像における1フレームよりも大きな時間であった場合、パケットに差分時間を付加し、差分時間が映像における1フレームよりも小さい時間であった場合、パケットに差分時間を付加しないことを特徴とする構成1乃至6のいずれか1項に記載の撮像装置。
(Configuration 7)
The imaging device described in any one of configurations 1 to 6, characterized in that the time addition unit adds the differential time to the packet when the differential time is a time greater than one frame in the video, and does not add the differential time to the packet when the differential time is a time smaller than one frame in the video.
(構成8)
差分時間を付加したパケットを、撮像装置とは異なる他の撮像装置に対して送付する通信部を有することを特徴とする構成1乃至7のいずれか1項に記載の撮像装置。
(Configuration 8)
8. The imaging device according to any one of configurations 1 to 7, further comprising a communication unit that transmits a packet to which a difference time has been added to another imaging device different from the imaging device itself.
(構成9)
他の撮像装置は少なくとも1つ以上であることを特徴とする構成8に記載の撮像装置。
(Configuration 9)
9. The imaging device according to configuration 8, wherein the other imaging device is at least one.
(構成10)
他の撮像装置における差分時間を付加したパケットを受信するパケット受信部を有することを特徴とする構成8または9に記載の撮像装置。
(Configuration 10)
10. The imaging device according to configuration 8 or 9, further comprising a packet receiving unit for receiving a packet to which a difference time in another imaging device is added.
(構成11)
パケット受信部は、他の撮像装置における差分時間と、撮像装置における差分時間とを比較することで最も大きな差分時間を決定することを特徴とする構成10に記載の撮像装置。
(Configuration 11)
11. The imaging device according to configuration 10, wherein the packet receiving section determines the largest differential time by comparing the differential time in the imaging device with the differential time in the other imaging devices.
(構成12)
時間付加部は、最も大きな差分時間をパケットに付加することを特徴とする構成11に記載の撮像装置。
(Configuration 12)
12. The imaging device according to configuration 11, wherein the time adding section adds the largest difference time to the packet.
(構成13)
時間付加部は、最も大きな差分時間と差分時間との差分を算出し、算出した差分に応じてパケットを出力することを特徴とする構成11または12に記載の撮像装置。
(Configuration 13)
13. The imaging device according to configuration 11 or 12, wherein the time adding section calculates the difference between the largest differential time and the differential time, and outputs a packet according to the calculated difference.
(構成14)
映像を保持する映像保持部を有し、
映像保持部は、最も大きな差分時間分遅らせた映像を出力することを特徴とする構成13に記載に撮像装置。
(Configuration 14)
An image storage unit that stores an image,
14. The imaging device according to claim 13, wherein the image storage unit outputs the image delayed by the largest difference time.
(構成15)
出力部は、映像保持部により出力された最も大きな差分時間分遅らせた映像を同期信号発信装置が出力する信号に合わせて出力することを特徴とする構成14に記載の撮像装置。
(Configuration 15)
15. The imaging device according to configuration 14, wherein the output unit outputs the video output by the video holding unit, delayed by the largest time difference, in synchronization with the signal output by the synchronization signal transmission device.
(構成16)
状態情報は、撮像部の現在の画角の情報であることを特徴とする構成1乃至15のいずれか1項に記載の撮像装置。
(Configuration 16)
16. The imaging device according to any one of configurations 1 to 15, wherein the state information is information about a current angle of view of the imaging unit.
(構成17)
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
生成した映像を出力し、
同期信号発信装置が出力する信号を検知した際の映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成し、
状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する、
ことを特徴とする撮像装置の制御方法。
(Configuration 17)
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Output the generated image,
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates an image when a signal output from a synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the status information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
23. A method for controlling an imaging apparatus comprising:
(構成18)
撮像装置の制御方法をコンピュータに実行させるためのプログラムであって、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
生成した映像を出力し、
同期信号発信装置が出力する信号を検知した際の映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成し、
状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する、
ことを特徴とするプログラム。
(Configuration 18)
A program for causing a computer to execute a control method for an imaging device,
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Output the generated image,
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates an image when a signal output from a synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the status information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
A program characterized by:
(構成19)
周期的な信号を発信する同期信号発信装置が出力する信号を検知した際の撮像装置のパンチルト部における状態の情報として状態情報を取得した時間である第1の時間とパケットを出力する時間である第2の時間との差分である差分時間が付加されたパケットを受信する通信部と、
信号に合わせて撮像した画像に画像処理を行い生成された映像を保持する保持部と、
映像に対応するグラフィックを生成する生成部と、
状態情報に基づき、グラフィックの描画を変化させる描画部と、
描画部で描画されたグラフィックと映像を合成し合成映像を生成する描画合成部と、を有し、
描画合成部は、パケットに付加された差分時間が所定の時間以上であった場合、差分時間に基づき、保持部に保持されている映像から差分時間以前の映像を選択し、選択した映像と描画部で描画されたグラフィックとを合成して合成映像を生成する、
ことを特徴とする情報処理装置。
(Configuration 19)
a communication unit that receives a packet to which a difference time is added, the difference being between a first time, which is a time at which state information is acquired as information on a state of a pan-tilt unit of the imaging device when a signal output from a synchronization signal transmission device that transmits a periodic signal is detected, and a second time, which is a time at which the packet is output;
a storage unit that stores a video image generated by performing image processing on the image captured in accordance with the signal;
a generating unit for generating a graphic corresponding to the video;
a drawing unit that changes the drawing of a graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit with the video to generate a synthesized video;
the drawing synthesis unit, when the difference time added to the packet is equal to or greater than a predetermined time, selects an image that is older than the difference time from the images stored in the storage unit based on the difference time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a synthetic image;
23. An information processing apparatus comprising:
(構成20)
少なくとも1つ以上の撮像装置と、撮像装置と通信可能に接続される情報処理装置と、を有する撮像システムであって、
撮像装置は、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
撮像部の画角を変更可能なパンチルト部と、
撮像部が生成した映像を出力する出力部と、
同期信号発信装置が出力する信号を検知した際のパンチルト部における状態の情報である状態情報を取得し、状態情報を含むパケットを生成するパケット生成部と、
状態情報を取得した時間である第1の時間とパケット生成部がパケットを出力する時間である第2の時間との差分である差分時間を算出し、差分時間をパケットに付加する時間付加部と、を有し、
情報処理装置は、
パケットを受信する通信部と、
映像を保持する保持部と、
映像に対応する所定のグラフィックを生成する生成部と、
状態情報に基づき、所定のグラフィックの描画を変化させる描画部と、
描画部で描画されたグラフィックと映像を合成し合成映像を生成する描画合成部と、を有し、
描画合成部は、パケットに付加された差分時間が所定の時間以上であった場合、差分時間に基づき、保持部に保持されている映像から差分時間以前の映像を選択し、選択した映像と描画部で描画されたグラフィックとを合成して合成映像を生成する、ことを特徴とする撮像システム。
(Configuration 20)
An imaging system having at least one imaging device and an information processing device communicably connected to the imaging device,
The imaging device
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs a packet, and adds the difference time to the packet,
The information processing device includes:
A communication unit for receiving packets;
A storage unit for storing an image;
A generating unit that generates a predetermined graphic corresponding to the video;
a drawing unit that changes the drawing of a predetermined graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit with the video to generate a synthesized video;
The imaging system is characterized in that, when the differential time added to the packet is equal to or greater than a predetermined time, the drawing synthesis unit selects an image from the image stored in the storage unit that was taken before the differential time based on the differential time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a composite image.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 The above describes preferred embodiments of the present invention, but the present invention is not limited to these embodiments, and various modifications and variations are possible within the scope of the gist of the invention.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。その場合、そのプログラム、該プログラムを記憶した記憶媒体は本発明を構成することとなる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in the computer of the system or device read and execute the program. In this case, the program and the storage medium on which the program is stored constitute the present invention. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.
100 第1の撮像装置
102 情報処理装置
103 ネットワーク
104 ディスプレイ
105 第2の撮像装置
106 同期信号発信装置
201 撮像処理部
202 通信処理部
203 パンチルト部
204 保持部
205 時間提供部
206 撮像部
207 映像信号出力部
208 パケット生成部
209 時間提供部
210 時間付加部
211 撮像装置通信部
212 表示装置通信部
213 パンチルト情報描画部
214 3次元グラフィック生成部
215 映像保持部
216 描画合成部
REFERENCE SIGNS
Claims (20)
前記撮像部の画角を変更可能なパンチルト部と、
前記撮像部が生成した前記映像を出力する出力部と、
前記同期信号発信装置が出力する前記信号を検知した際の前記パンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成するパケット生成部と、
前記状態情報を取得した時間である第1の時間と前記パケット生成部が前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する時間付加部と、を有する、
ことを特徴とする撮像装置。 an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs the packet, and adds the difference time to the packet.
1. An imaging device comprising:
前記時間付加部は、前記第2の時間を前記時間提供部から取得することを特徴とする請求項1に記載の撮像装置。 A time providing unit that provides a synchronized time;
The imaging device according to claim 1 , wherein the time adding unit obtains the second time from the time providing unit.
前記映像保持部は、前記最も大きな差分時間分遅らせた映像を出力することを特徴とする請求項13に記載に撮像装置。 an image storage unit for storing the image;
14. The imaging device according to claim 13, wherein the image storage unit outputs the image delayed by the largest time difference.
前記生成した前記映像を出力し、
前記同期信号発信装置が出力する前記信号を検知した際の前記映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成し、
前記状態情報を取得した時間である第1の時間と前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する、
ことを特徴とする撮像装置の制御方法。 An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Outputting the generated image;
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates the image when the signal output by the synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the state information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
23. A method for controlling an imaging apparatus comprising the steps of:
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成し、
前記生成した前記映像を出力し、
前記同期信号発信装置が出力する前記信号を検知した際の前記映像を生成する撮像部の画角を変更可能なパンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成し、
前記状態情報を取得した時間である第1の時間と前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する、
ことを特徴とするプログラム。 A program for causing a computer to execute a control method for an imaging device,
An image is captured in accordance with a signal output from a synchronization signal transmitter that transmits a periodic signal, and image processing is performed on the captured image to generate a video image.
Outputting the generated image;
acquiring status information that is information on a status of a pan-tilt unit capable of changing the angle of view of an imaging unit that generates the image when the signal output by the synchronization signal transmission device is detected, and generating a packet including the status information;
calculating a differential time between a first time which is a time when the state information is acquired and a second time which is a time when the packet is output, and adding the differential time to the packet;
A program characterized by:
前記信号に合わせて撮像した画像に画像処理を行い生成された映像を保持する保持部と、
前記映像に対応するグラフィックを生成する生成部と、
前記状態情報に基づき、前記グラフィックの描画を変化させる描画部と、
前記描画部で描画されたグラフィックと前記映像を合成し合成映像を生成する描画合成部と、を有し、
前記描画合成部は、前記パケットに付加された前記差分時間が所定の時間以上であった場合、前記差分時間に基づき、前記保持部に保持されている映像から前記差分時間以前の映像を選択し、選択した映像と前記描画部で描画されたグラフィックとを合成して合成映像を生成する、
ことを特徴とする情報処理装置。 a communication unit that receives a packet to which a difference time is added, the difference being between a first time, which is a time at which state information is acquired as information on a state of a pan-tilt unit of the imaging device when a signal output from a synchronization signal transmission device that transmits a periodic signal is detected, and a second time, which is a time at which the packet is output;
a storage unit that stores a video image generated by performing image processing on the image captured in accordance with the signal;
a generating unit for generating a graphic corresponding to the image;
a drawing unit that changes the drawing of the graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit and the image to generate a synthetic image,
when the differential time added to the packet is equal to or greater than a predetermined time, the drawing synthesis unit selects an image that is older than the differential time from the images stored in the storage unit based on the differential time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a synthetic image.
23. An information processing apparatus comprising:
前記撮像装置は、
周期的な信号を発信する同期信号発信装置が出力する信号に合わせて撮像した画像に画像処理を行い、映像を生成する撮像部と、
前記撮像部の画角を変更可能なパンチルト部と、
前記撮像部が生成した前記映像を出力する出力部と、
前記同期信号発信装置が出力する前記信号を検知した際の前記パンチルト部における状態の情報である状態情報を取得し、前記状態情報を含むパケットを生成するパケット生成部と、
前記状態情報を取得した時間である第1の時間と前記パケット生成部が前記パケットを出力する時間である第2の時間との差分である差分時間を算出し、前記差分時間を前記パケットに付加する時間付加部と、を有し、
前記情報処理装置は、
前記パケットを受信する通信部と、
前記映像を保持する保持部と、
前記映像に対応する所定のグラフィックを生成する生成部と、
前記状態情報に基づき、前記所定のグラフィックの描画を変化させる描画部と、
前記描画部で描画されたグラフィックと前記映像を合成し合成映像を生成する描画合成部と、を有し、
前記描画合成部は、前記パケットに付加された前記差分時間が所定の時間以上であった場合、前記差分時間に基づき、前記保持部に保持されている映像から前記差分時間以前の映像を選択し、選択した映像と前記描画部で描画されたグラフィックとを合成して合成映像を生成する、ことを特徴とする撮像システム。
An imaging system having at least one imaging device and an information processing device communicably connected to the imaging device,
The imaging device includes:
an imaging unit that performs image processing on an image captured in synchronization with a signal output from a synchronization signal transmission device that transmits a periodic signal, thereby generating a video;
A pan-tilt unit capable of changing the angle of view of the imaging unit;
an output unit that outputs the image generated by the imaging unit;
a packet generating unit that acquires status information that is information on the status of the pan/tilt unit when the signal output from the synchronization signal transmitting device is detected, and generates a packet including the status information;
a time adding unit that calculates a difference time between a first time that is a time when the state information is acquired and a second time that is a time when the packet generating unit outputs the packet, and adds the difference time to the packet,
The information processing device includes:
A communication unit for receiving the packet;
A storage unit for storing the image;
a generating unit for generating a predetermined graphic corresponding to the image;
a drawing unit that changes the drawing of the predetermined graphic based on the state information;
a drawing synthesis unit that synthesizes the graphic drawn by the drawing unit and the image to generate a synthetic image,
The imaging system is characterized in that, when the differential time added to the packet is equal to or greater than a predetermined time, the drawing synthesis unit selects, based on the differential time, an image from the image stored in the storage unit that was taken before the differential time, and synthesizes the selected image with the graphic drawn by the drawing unit to generate a synthetic image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162167A JP2024055333A (en) | 2022-10-07 | 2022-10-07 | IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162167A JP2024055333A (en) | 2022-10-07 | 2022-10-07 | IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024055333A true JP2024055333A (en) | 2024-04-18 |
Family
ID=90716462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162167A Pending JP2024055333A (en) | 2022-10-07 | 2022-10-07 | IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024055333A (en) |
-
2022
- 2022-10-07 JP JP2022162167A patent/JP2024055333A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10958820B2 (en) | Intelligent interface for interchangeable sensors | |
EP0589657B1 (en) | Network system and terminal apparatus | |
JP4623069B2 (en) | Information processing apparatus and method, program, and recording medium | |
US8711207B2 (en) | Method and system for presenting live video from video capture devices on a computer monitor | |
JP4346591B2 (en) | Video processing apparatus, video processing method, and program | |
JP7184248B2 (en) | real-time editing system | |
JP4451730B2 (en) | Moving picture generating apparatus, method and program | |
JP4559976B2 (en) | Video composition apparatus, video composition method, and video composition program | |
WO2019155894A1 (en) | Communication device, communication method, and program | |
JP2018535622A (en) | Network video communication applicable to Gigabit Ethernet | |
US8179421B2 (en) | Image synthesizing device and method and computer readable medium | |
CN111988552B (en) | Image output control method and device and video processing equipment | |
JP2024055333A (en) | IMAGING APPARATUS, CONTROL METHOD FOR IMAGING APPARATUS, PROGRAM, INFORMATION PROCESSING APPARATUS, AND IMAGING SYSTEM | |
JP2019087880A (en) | Signal output device, camera pan head, camera pan head interlocking system, and program | |
KR101562789B1 (en) | Method for both routing and switching multi-channel hd/uhd videos and the apparatus thereof | |
JP7190849B2 (en) | IMAGE GENERATION DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE GENERATION DEVICE | |
JP5863356B2 (en) | Stereo moving image imaging apparatus, imaging method, stereo moving image display apparatus, display method, and program | |
JP2023075859A (en) | Information processing apparatus, information processing method, and program | |
JP2010278983A (en) | Apparatus and method of transmitting images | |
JP5225068B2 (en) | Image processing apparatus and image processing method | |
JP2004504683A (en) | Method and apparatus for determining current projection data for projection of a spatially varying surface | |
JP2020077997A (en) | Image processing apparatus, system, information processing method, and program | |
WO2009098763A1 (en) | Video processor, video processing method and video processing program | |
JP6027739B2 (en) | Video processing apparatus, video processing method, video processing system, and program | |
TWI812003B (en) | Method and system for previewing the image |