JPH118845A - Panoramic image generation device and its method - Google Patents

Panoramic image generation device and its method

Info

Publication number
JPH118845A
JPH118845A JP9261829A JP26182997A JPH118845A JP H118845 A JPH118845 A JP H118845A JP 9261829 A JP9261829 A JP 9261829A JP 26182997 A JP26182997 A JP 26182997A JP H118845 A JPH118845 A JP H118845A
Authority
JP
Japan
Prior art keywords
image
pan
panoramic image
images
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9261829A
Other languages
Japanese (ja)
Other versions
JP3744147B2 (en
Inventor
Masakazu Koyanagi
正和 小柳
Tadafusa Tomitaka
忠房 富高
Toshiyuki Iijima
利幸 飯島
Naoyasu Hosonuma
直泰 細沼
Ken Tamayama
研 玉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP26182997A priority Critical patent/JP3744147B2/en
Publication of JPH118845A publication Critical patent/JPH118845A/en
Application granted granted Critical
Publication of JP3744147B2 publication Critical patent/JP3744147B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate a panoramic image that has high picture quality and has no distortion caused at each connection part of the image by mapping plural images which are photographed by controlling the photographing direction of an image pickup means via a drive means onto a virtual spherical surface that is viewed from the rotational center of the drive means. SOLUTION: A computer 1 photographs a scenery 4 by controlling a pan tilter camera 3 located at a remote place and displays the image of a photographed screen 5 in an operation area 6A of a monitor 2. When a panoramic screen production instruction is produced via a panorama production button 6E, a pan tilter and a zoom lens are driven to each prescribed position to acquire each image. These acquired images are connected together to a virtual spherical surface defining a mobile axis of the pan tilter as an original point, and a plane image which is normalized in both latitude and longitude directions of the virtual spherical surface is shown in a panoramic image display area 6B. In such a way, a panoramic image is easily produced with no use of an expensive super-wide-angle lens nor fisheye lens.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、高解像度、高品
質のパノラマ画像を安価な装置により、且つ容易に得る
ことができるパノラマ画像生成装置および方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a panoramic image generating apparatus and method capable of easily obtaining a high-resolution and high-quality panoramic image with an inexpensive apparatus.

【0002】[0002]

【従来の技術】従来、画像同士を連結する場合、連結し
たい画像の相関する位置(画素)を見つけだし、単純に
重ね合わせたり、1枚の画像に対して、連結する画像を
拡大/縮小したり、変形した後に重ね合わせるといった
手法がとられていた。
2. Description of the Related Art Conventionally, when images are connected to each other, a correlated position (pixel) of the images to be connected is found, and the images are simply superimposed or the connected image is enlarged / reduced for one image. , And then superimposed after deformation.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、画像の
拡大/縮小、変形は、画像の解像度の劣化など、画質の
低下をもたらす問題があった。また、複数の画像を単に
連結する場合には、歪みが発生する問題があった。例え
ば、図21Aに示すような、10枚の画像同士を連結す
る場合、撮像装置から得られた10枚の画像は、レンズ
の光軸に垂直な平面群を写像している。このため、単に
10枚の画像を連結する手法によると、奥行きの方向に
ある被写体が連結する画像間に映し出されている場合、
図21Bに示すように、連結部分に歪みが生じる問題が
あった。
However, enlargement / reduction and deformation of an image have a problem of deteriorating image quality such as deterioration of resolution of the image. Further, when a plurality of images are simply connected, there is a problem that distortion occurs. For example, when connecting ten images as shown in FIG. 21A, the ten images obtained from the imaging device map a plane group perpendicular to the optical axis of the lens. Therefore, according to the method of simply connecting the ten images, when a subject in the depth direction is projected between the connected images,
As shown in FIG. 21B, there is a problem that distortion occurs in the connection portion.

【0004】従って、この発明の目的は、高画質であっ
て、連結部分に歪みが生じることのないパノラマ画像を
生成することができるパノラマ画像生成装置および方法
を提供することにある。
Accordingly, it is an object of the present invention to provide a panoramic image generating apparatus and method capable of generating a panoramic image having high image quality and having no distortion in a connected portion.

【0005】[0005]

【課題を解決するための手段】請求項1に記載の発明
は、映像を撮影する撮像手段と、撮像手段の撮像する方
角を制御する駆動手段と、撮像手段によって得られた複
数の画像を、駆動手段の回転中心から見た仮想球面に対
し写像することによって歪みなく連結する画像連結手段
とからなることを特徴とするパノラマ画像生成装置であ
る。
According to a first aspect of the present invention, there is provided an image capturing means for capturing an image, a driving means for controlling a direction of the image capturing means, and a plurality of images obtained by the image capturing means. A panoramic image generating apparatus characterized by comprising image connecting means for connecting without distortion by mapping to a virtual spherical surface viewed from the rotation center of the driving means.

【0006】請求項11に記載の発明は、映像を撮影す
るステップと、映像を撮像する方角を制御するステップ
と、撮影することによって得られた複数の画像を、撮影
する位置の回転中心から見た仮想球面に対し写像するこ
とによって歪みなく連結するステップとからなることを
特徴とするパノラマ画像生成方法である。
According to an eleventh aspect of the present invention, a step of photographing an image, a step of controlling a direction in which the image is photographed, and a method of viewing a plurality of images obtained by photographing from the rotation center of the photographing position. And forming a panoramic image by mapping onto a virtual sphere.

【0007】撮像手段(例えば、ビデオカメラ)では、
ズームレンズを通して撮像された被写体の映像を電気信
号に変換し、映像信号として出力すると共に、画像連結
手段より指令されるズームレンズ位置座標に対してレン
ズを駆動する。また、現在のズームレンズの位置座標
を、画像連結手段に供給する。
In the imaging means (for example, a video camera),
The image of the subject imaged through the zoom lens is converted into an electric signal, output as an image signal, and the lens is driven with respect to the zoom lens position coordinates specified by the image connecting means. Further, the current position coordinates of the zoom lens are supplied to the image connecting means.

【0008】駆動手段(例えば、パンチルタ)は、撮像
手段を回転方向に駆動して撮像装置の撮像する方向を変
更することが可能で、画像連結手段より指令される、位
置座標に対して駆動手段を移動すると共に、画像連結手
段に対して現在の駆動手段の位置座標を供給する。画像
連結手段は、撮像手段より現在のレンズのズーム位置を
取得し、その倍率を計算すると共に、駆動手段より現在
のパンチルタのパン、チルト方向の位置データを取得
し、ホームポジション(例えば駆動手段の可動範囲の中
心位置)を緯度、経度の原点とするパンチルタの角度座
標を計算する。そして、パノラマ画像作成の指示が、装
置内部(例えば、周期的な作成指令)、または装置外部
(例えば、操作者の指令)より発生した場合、駆動手段
に対して、パノラマ画像を作成するための映像を取得す
るために位置座標を指示し、目標位置到達後、映像を取
得し、得られた映像の仮想球面への写像、水平、垂直方
向への画像の圧縮、先に取り込まれた画像への連結処理
などを行い、連結した画像を表示手段に出力する。そし
て、このような手順で画像の連結を順次行っていき、最
終的に得られたパノラマ画像を表示手段に出力すると共
に、画像の保存を行う。なお、駆動手段への目標位置を
設定する際、画像連結手段は、バックラッシュによる影
響で駆動手段の絶対位置が狂わぬよう、同一方向から目
標位置に進入するように駆動手段に指示を与える。
The driving means (for example, pan tilter) is capable of driving the imaging means in the rotating direction to change the direction in which the image is taken by the imaging device. And supplies the current position coordinates of the driving means to the image connecting means. The image linking means obtains the current zoom position of the lens from the imaging means, calculates the magnification thereof, obtains the current pan / tilt position data of the pan / tilt from the driving means, and obtains the home position (for example, Calculate the angle coordinates of the pan tilter with the origin of latitude and longitude as the center of the movable range). When an instruction to create a panoramic image is issued from inside the apparatus (for example, a periodic creation instruction) or from outside the apparatus (for example, an instruction from an operator), the driving unit generates a panoramic image. Instruct the position coordinates to acquire the image, acquire the image after reaching the target position, map the acquired image to the virtual sphere, compress the image in the horizontal and vertical directions, to the previously captured image And outputs a connected image to the display means. Then, the images are sequentially connected in such a procedure, and the finally obtained panoramic image is output to the display means, and the image is stored. When setting the target position for the driving means, the image connecting means gives an instruction to the driving means to enter the target position from the same direction so that the absolute position of the driving means is not disturbed by the influence of the backlash.

【0009】[0009]

【発明の実施の形態】以下、この発明のいくつかの実施
形態について図面を参照して説明する。図1−1はこの
発明の一実施形態の概略的な構成を示す。モニタ2およ
びマウス8が接続されているコンピュータ1は、遠隔地
に接続されてたパンチルタカメラ3の駆動を制御する。
すなわち、コンピュータ1によって、撮像装置のコント
ローラが構成される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Some embodiments of the present invention will be described below with reference to the drawings. FIG. 1-1 shows a schematic configuration of an embodiment of the present invention. The computer 1 to which the monitor 2 and the mouse 8 are connected controls the driving of the pan tilter camera 3 connected to a remote place.
That is, the computer 1 forms a controller of the imaging device.

【0010】パンチルタカメラ3は、パンチルタ部とカ
メラ部が一体的に構成されたものを意味する。この図1
では、一例としてパンチルタカメラ3は、4に示すよう
な環境にある実際の景色に設置される。この環境の実際
の景色4に設置されたパンチルタカメラ3によって撮影
された画面(以下、撮影画面と称する)を5に示す。こ
の撮影画面は、実際に撮影されている画面であって、ズ
ームレンズを望遠側に操作すると画角が小さくなり、ワ
イド側に操作すると画角が大きくなる。
The pan tilter camera 3 means a pan tilter unit and a camera unit integrally formed. This figure 1
Then, as an example, the pan tilter camera 3 is installed in an actual scene in an environment as shown in FIG. 5 shows a screen shot by the pan tilter camera 3 installed in the actual scene 4 of the environment (hereinafter, referred to as a shooting screen). This photographing screen is a screen in which photographing is actually performed. When the zoom lens is operated on the telephoto side, the angle of view is reduced, and when the zoom lens is operated on the wide side, the angle of view is increased.

【0011】パンチルタカメラ3によって取り込まれる
撮影画面5の映像は、ビデオケーブルなどを経て、コン
ピュータ1に供給され、コンピュータ1に供給された映
像データがデコードされ、モニタ2の操作領域6Aに表
示される。また、モニタ2では、パノラマ画像表示領域
6Bを有しており、パノラマ生成ボタン6Eにより、パ
ノラマ画面生成指示がなされると、パンチルタ、ズーム
レンズを所定の位置に駆動し、各々の場所で画像を取得
するとともに、取得した複数枚の画像を、パンチルタカ
メラの可動軸を原点とした仮想球面に対して画像を連結
し、仮想球面の緯度、経度方向に対して正規化を行った
平面画像を表示する。パノラマ操作領域6Bは、マウス
8に位置に矢印形のカーソル7が描画されている、映像
又はパノラマ画像中の任意の一点または任意の領域6C
をマウス8で指示することによって、パンチルタカメラ
3を操作するようになされている。さらに、パノラマ操
作領域6Bには、点線で示すように、パンチルタリミッ
タ表示6Dが表示される。パンチルタリッタ表示6D
は、パンチルタカメラ3の可動範囲の限界を示す。
An image of the photographing screen 5 captured by the pan tilter camera 3 is supplied to the computer 1 via a video cable or the like, and the video data supplied to the computer 1 is decoded and displayed on the operation area 6A of the monitor 2. You. The monitor 2 has a panorama image display area 6B. When a panorama screen generation instruction is given by a panorama generation button 6E, the pan tilter and the zoom lens are driven to predetermined positions, and an image is displayed at each location. At the same time, the obtained images are connected to the virtual sphere with the origin of the movable axis of the pan tilter camera, and the plane image is normalized with respect to the latitude and longitude directions of the virtual sphere. indicate. The panoramic operation area 6B is an arbitrary point or an arbitrary area 6C in a video or a panoramic image in which an arrow-shaped cursor 7 is drawn at the position of the mouse 8.
Is operated with the mouse 8 to operate the pan tilter camera 3. Further, a pan / tilt limiter display 6D is displayed in the panorama operation area 6B as indicated by a dotted line. Pantil Tarita display 6D
Indicates the limit of the movable range of the pan tilter camera 3.

【0012】図2に示すように、モニタ2の画面上に
は、操作領域6Aとパノラマ操作領域6Bが表示され
る。マウス8を操作することによって、カーソルが移動
し、パノラマ操作領域6Bの任意の一点または、任意の
領域6Cから生成される任意の一点を指示することがで
きる。指示された任意の一点が操作領域6Aの中央にな
るように、パンチルタを駆動させ、撮像画面5が移動す
る。すなわち、予め表示させたい結果を入力し、その入
力に応じて選択された被写体が、操作領域6Aの中央に
なるように表示される。
As shown in FIG. 2, an operation area 6A and a panorama operation area 6B are displayed on the screen of the monitor 2. By operating the mouse 8, the cursor moves, and it is possible to indicate an arbitrary point in the panoramic operation area 6B or an arbitrary point generated from the arbitrary area 6C. The pan tilter is driven so that the designated one point is located at the center of the operation area 6A, and the imaging screen 5 moves. That is, a result to be displayed is input in advance, and the subject selected in accordance with the input is displayed so as to be at the center of the operation area 6A.

【0013】図3は、この発明の実施の一形態を適用し
た全システムのブロック図である。このシステムは、カ
メラ部11、パンチルタ部12、TVモニタ13、コン
ピュータ1、マウス8等のポインティングデバイス1
4、モニタ2から構成される。また、上述したパンチル
タカメラ3は、カメラ部11とパンチルタ部12からな
り、一例としてカメラ部11がパンチルタ部12の上に
設置される。カメラ部11は、レンズブロック部15、
ズームレンズ16、ズーム部17、ズームレンズ16用
のモータ18、固体撮像素子19、信号分離/自動利得
調整回路(SH/AGC)20、A/D変換器21、信
号処理回路22から構成され、全体としてビデオカメラ
を示す。
FIG. 3 is a block diagram of the entire system to which an embodiment of the present invention is applied. The system includes a camera unit 11, a pan tilter unit 12, a TV monitor 13, a computer 1, and a pointing device 1 such as a mouse 8.
4. It consists of a monitor 2. The above-described pan-tilt camera 3 includes a camera unit 11 and a pan-tilt unit 12, and the camera unit 11 is installed on the pan-tilt unit 12 as an example. The camera unit 11 includes a lens block unit 15,
It comprises a zoom lens 16, a zoom unit 17, a motor 18 for the zoom lens 16, a solid-state imaging device 19, a signal separation / automatic gain adjustment circuit (SH / AGC) 20, an A / D converter 21, and a signal processing circuit 22, A video camera is shown as a whole.

【0014】パンチルタ部12は、モードコントローラ
23、カメラコントローラ24、パンチルタコントロー
ラ25、パン用のモータ26、チルト用のモータ27、
パンチルタ28から構成される。コンピュータ1は、制
御部31、ビデオキャプチャーボードからなるビデオキ
ャプチャー部29、記憶部30から構成される。
The pan tilter section 12 includes a mode controller 23, a camera controller 24, a pan tilter controller 25, a pan motor 26, a tilt motor 27,
It is composed of a pan tilter 28. The computer 1 includes a control unit 31, a video capture unit 29 including a video capture board, and a storage unit 30.

【0015】被写体から到達する撮像光は、レンズブロ
ック部15のレンズ群、絞りを通って固体撮像素子19
に結像される。固体撮像素子19の一例として、CCD
(Charge Coupled Device )がある。結像された撮像光
は、視野映像を映像信号に変換した後、信号分離/自動
利得調整回路20に供給される。信号分離/自動利得調
整回路20では、映像出力信号がサンプルホールドされ
るとともに、オートアイリス(AE)の制御信号によっ
て所定のゲインを持つように利得制御される。それによ
って、得られる映像出力信号は、A/D変換器21を介
して、信号処理回路22へ供給される。信号処理回路2
2では、入力された信号が輝度(Y)、色(C)、ビデ
オ信号といった各信号に変換され、映像信号としてTV
モニタ13を介してコンピュータ1のビデオキャプチャ
ー部29へ供給される。
The image pickup light arriving from the subject passes through the lens group of the lens block section 15 and the diaphragm, and then passes through the solid-state image pickup device 19.
Is imaged. As an example of the solid-state imaging device 19, a CCD
(Charge Coupled Device). The formed imaging light is supplied to a signal separation / automatic gain adjustment circuit 20 after converting a visual field image into a video signal. In the signal separation / automatic gain adjustment circuit 20, the video output signal is sampled and held, and the gain is controlled so as to have a predetermined gain by an auto iris (AE) control signal. The video output signal thus obtained is supplied to the signal processing circuit 22 via the A / D converter 21. Signal processing circuit 2
2, the input signal is converted into signals such as luminance (Y), color (C), and video signals,
The data is supplied to the video capture unit 29 of the computer 1 via the monitor 13.

【0016】また、カメラ部11のレンズブロック部1
5は、ズームレンズ16を駆動することによって撮像す
る画角を変化させることが可能とされている。このレン
ズブロック部15は、パンチルタ部12のカメラコント
ローラ24の駆動命令により、例えばステッピングモー
タからなるモータ18を回転させ、ズームレンズ16を
駆動させる。このカメラコントローラ24は、カメラ部
11のレンズ制御(例えば、フォーカス、ズーム等)、
露出制御(例えば、絞り、ゲイン、電子シャッタースピ
ード等)、白バランス制御、画質制御等を通常行うコン
トローラであるとともに、モードコントローラ23との
インタフェースも行っている。ズームレンズ16の制御
に関連するインタフェース制御として、モードコントロ
ーラ23より送られてくるズームレンズ16の駆動命令
に対して、ズームレンズ16が命令された位置に駆動さ
れるように制御信号をモータドライバに出力するととも
に、現在のズームレンズ16の位置情報が常時モードコ
ントローラ23に通信される。
The lens block unit 1 of the camera unit 11
Reference numeral 5 indicates that the angle of view to be imaged can be changed by driving the zoom lens 16. The lens block unit 15 drives the zoom lens 16 by rotating a motor 18, for example, a stepping motor, according to a driving command of the camera controller 24 of the pan / tilt unit 12. The camera controller 24 controls the lens of the camera unit 11 (for example, focus, zoom, etc.)
The controller normally performs exposure control (for example, aperture, gain, electronic shutter speed, and the like), white balance control, image quality control, and the like, and also interfaces with the mode controller 23. As an interface control related to the control of the zoom lens 16, a control signal is sent to the motor driver so that the zoom lens 16 is driven to the commanded position in response to the drive command of the zoom lens 16 sent from the mode controller 23. At the same time, the current position information of the zoom lens 16 is communicated to the mode controller 23 at all times.

【0017】また、カメラ部11は、パン、チルトとい
った2軸の回転方向の自由度を持つ装置であるパンチル
タ部12の上に設置される。そのパンチルタ部12は、
パンチルタコントローラ25の駆動命令により、パン用
のモータ26およびチルト用のモータ27を回転させ、
パンチルタ28の雲台が各々駆動される。これらモータ
26および27の、一例としてステッピングモータがあ
る。このパンチルタコントローラ25は、モードコント
ローラ23より送られてくるパン、チルト各々の方向の
駆動命令に対して、パン、チルト各々の雲台が、命令さ
れた位置に駆動されるように制御信号をモータドライバ
に出力するとともに、現在のパンチルタ28のパン、チ
ルト各々の雲台の位置情報が常時モードコントローラ2
3に通信される。
The camera unit 11 is installed on a pan / tilt unit 12 which is a device having two degrees of freedom in a rotational direction such as pan and tilt. The pan tilter unit 12
The pan motor 26 and the tilt motor 27 are rotated by the drive command of the pan tilt controller 25,
The pan head of the pan tilter 28 is driven. An example of these motors 26 and 27 is a stepping motor. The pan / tilt controller 25 responds to a drive command in each of the pan and tilt directions sent from the mode controller 23 so that the pan and tilt heads are driven to the commanded positions. The current position information of the pan and tilt of the pan / tilt 28 is output to the motor driver and the current
3 is communicated.

【0018】モードコントローラ23は、カメラ部1
1、パンチルタ部12の内部状態、およびパンチルタカ
メラ3の外部からのインタフェース情報に従い、後述す
るようにシステム全体を制御する。モードコントローラ
23は、例えばコンピュータ1とRS−232Cにより
接続され、コンピュータ1からの駆動命令に対し、パン
チルタ28、レンズブロック部15のズームレンズ16
を駆動するようにパンチルタコントローラ25、カメラ
コントローラ24に命令を振り分けるとともに、パンチ
ルタコントローラ25、カメラコントローラ24より送
られてくる現在の位置情報をコンピュータ1に送信す
る。
The mode controller 23 includes the camera unit 1
1. According to the internal state of the pan / tilt unit 12 and interface information from outside the pan / tilt camera 3, the entire system is controlled as described later. The mode controller 23 is connected to the computer 1 by, for example, an RS-232C, and responds to a driving command from the computer 1 to the pan tilter 28 and the zoom lens 16
The command is distributed to the pan tilter controller 25 and the camera controller 24 so as to drive the camera, and the current position information sent from the pan tilter controller 25 and the camera controller 24 is transmitted to the computer 1.

【0019】この実施の一形態では、パンチルタカメラ
3の映出する映像を選択するためにコンピュータ1を使
用している。そして、モニタ2の画面上の操作領域6A
およびパノラマ操作領域6Bに表示されるグラフィック
表示と、ポインティングデバイス14(マウス8)の指
示位置、クリック等の操作とから得られる情報を処理す
ることでモードコントローラ23への通信データを決定
している。また、カメラ部11の映像をモニタ2に表示
するため、ビデオキャプチャー部29が使用される。こ
のビデオキャプチャー部29は、カメラ部11より入力
されてくる映像信号を任意の品質でモニタ2に表示する
ことが可能であるとともに、キャプチャー信号により任
意の画像フォーマット(例えば、ビットマップ形式、J
PEG形式の静止画、JPEG形式の動画等)に、任意
の品質でキャプチャーし、コンピュータ1の記憶部30
(例えば、ハードディスク)上にストレージすることが
できる。
In this embodiment, the computer 1 is used to select an image projected by the pan / tilt camera 3. Then, the operation area 6A on the screen of the monitor 2
The communication data to the mode controller 23 is determined by processing information obtained from the graphic display displayed on the panorama operation area 6B and the operation such as the pointing position of the pointing device 14 (mouse 8) and the click. . In addition, a video capture unit 29 is used to display an image of the camera unit 11 on the monitor 2. The video capture unit 29 is capable of displaying a video signal input from the camera unit 11 on the monitor 2 with an arbitrary quality, and is configured to use an arbitrary image format (for example, a bitmap format, a J
PEG format still image, JPEG format moving image, etc.) at any quality and stored in the storage unit 30 of the computer 1.
(Eg, a hard disk).

【0020】ここで、図4を用いて、この実施の一形態
におけるパノラマ画像を作成するための概略的な説明を
行う。まず、パンチルタカメラ3が設定されている周囲
の環境を球面とする。これを仮想球面と称する。この図
4では、仮想球面上の隣合う2枚の画像を連結して1枚
のパノラマ画像を作成する。まず、パノラマ画像を作成
するためには、図4Aに示すように、中心に位置するパ
ンチルタカメラ3は、仮想球面上の隣合う2枚の画像を
撮影する。パンチルタカメラ3は、レンズの光軸に直交
する平面を撮像する。図4Dは、仮想球面上の隣合う2
つの画像をパンチルタカメラ3によって撮像することに
より、光軸に直交する平面にこの2つの画像が写像され
た状態を示す。隣合う2つの画像を単純に連結した場
合、つなぎ目の重複や、歪みが生じる部分がある。
Here, referring to FIG. 4, a brief description will be given for creating a panoramic image in this embodiment. First, the surrounding environment where the pan tilter camera 3 is set is assumed to be a spherical surface. This is called a virtual spherical surface. In FIG. 4, two adjacent images on the virtual spherical surface are connected to create one panoramic image. First, in order to create a panoramic image, as shown in FIG. 4A, the pan tilter camera 3 located at the center captures two adjacent images on the virtual spherical surface. The pan tilter camera 3 images a plane orthogonal to the optical axis of the lens. FIG. 4D shows two adjacent pixels on the virtual spherical surface.
A state in which these two images are mapped on a plane orthogonal to the optical axis by capturing one image with the pan tilter camera 3 is shown. When two adjacent images are simply connected, there is a portion where a joint overlaps or a distortion occurs.

【0021】このつなぎ目の重複や、歪みをなくすため
に、図4Bに示すように、仮想球面に隣合う2つの画像
をそれぞれ写像する。図4Eは、光軸に直交する平面で
ある2つの撮像画像を仮想球面に写像した状態を示す。
このように、光軸に直交する平面、すなわち撮像画像を
仮想球面へ写像し、写像した画像を連結し、重複画像、
不要画像の削除を行う画像の連結処理が行われる。そし
て、仮想球面に写像された像を緯度、経度で正規化する
ことによって、図4Cおよび図4Dに示すように、パノ
ラマ画像を生成することができる。
As shown in FIG. 4B, two images adjacent to the virtual spherical surface are mapped to eliminate the overlap and distortion of the joint. FIG. 4E shows a state where two captured images, which are planes orthogonal to the optical axis, are mapped onto a virtual spherical surface.
In this manner, a plane orthogonal to the optical axis, that is, a captured image is mapped onto a virtual spherical surface, the mapped images are connected, and an overlap image,
Image connection processing for deleting unnecessary images is performed. Then, by normalizing the image mapped on the virtual spherical surface by latitude and longitude, a panoramic image can be generated as shown in FIGS. 4C and 4D.

【0022】次に、この発明によるパノラマ画像を作成
する一方法を説明する。この一方法では、図5に示すよ
うに、10枚の画像を連結して1枚のパノラマ画像とす
る。まず、図5Aに示すように仮想球面の中心に配置さ
れたパンチルタカメラ3(図示しない)から10枚の画
像が撮影される。このとき、図に示すように画像領域毎
に丸で示す位置にパンチルタカメラ3のレンズの光軸を
合わせることによって、パンチルタカメラ3は1〜10
の各画像を取得することができる。パンチルタカメラ3
によって撮像された画像は、図5Bに示すように、レン
ズの光軸に直交する平面上の画像である。取得された画
像は、それぞれ仮想球面上に展開された後、図5Cに示
すように、緯度、経度で正規化される。仮想球面上に展
開された10枚の画像は、連結処理の際につなぎ目に抜
けがないように、お互いの画像が重複するような位置で
画像の取得が行われる。そして、重複画像、不要画像の
削除がなされた後、10枚の画像が連結され、図5Dに
示すように、パノラマ画像が生成される。
Next, one method of creating a panoramic image according to the present invention will be described. In this method, as shown in FIG. 5, ten images are connected to form one panoramic image. First, as shown in FIG. 5A, ten images are taken from a pan tilter camera 3 (not shown) arranged at the center of the virtual spherical surface. At this time, as shown in the figure, the optical axis of the lens of the pan tilter camera 3 is adjusted to the position shown by a circle for each image area, so that the pan tilter camera 3
Can be obtained. Pantilta camera 3
5B is an image on a plane orthogonal to the optical axis of the lens, as shown in FIG. 5B. After the acquired images are respectively developed on the virtual spherical surface, they are normalized by latitude and longitude as shown in FIG. 5C. The images of the ten images developed on the virtual spherical surface are acquired at positions where the images overlap each other so that there is no gap in the joint at the time of the connection processing. Then, after the overlapping image and the unnecessary image are deleted, the ten images are connected, and a panoramic image is generated as shown in FIG. 5D.

【0023】次に、この発明によるパノラマ画像を作成
する他の方法を図6を参照して説明する。緯度、経度で
正規化されるパノラマ画像の画素、すなわち各座標
(s,t)には、パンチルタカメラ3で取得した画像の
どの画素が割り当てられるかが算出される。図5の方法
のように、パンチルタカメラ3で取得した画像の画素を
パノラマ画像の画素に対応させた場合、対応する画素の
ないパノラマ画像の画素が生じることがあり、パノラマ
画像の全ての画素に取得した画像の画素を対応させるた
めである。このように、座標毎に算出された画素によっ
てパノラマ画像が実現される。その処理の手順として、
まずパノラマ画像の座標(s,t)(図6A)に対応す
る仮想球面上の角度座標(α,β)(図6B)を式
(1)を用いて算出する。
Next, another method of creating a panoramic image according to the present invention will be described with reference to FIG. It is calculated which pixel of the image acquired by the pan tilter camera 3 is assigned to the pixel of the panoramic image normalized by the latitude and longitude, that is, each coordinate (s, t). When pixels of an image acquired by the pan tilter camera 3 are made to correspond to pixels of a panoramic image as in the method of FIG. 5, pixels of a panoramic image without corresponding pixels may occur, and all pixels of the panoramic image may be generated. This is for making the pixels of the acquired image correspond. Thus, a panorama image is realized by the pixels calculated for each coordinate. As a procedure of the processing,
First, the angle coordinates (α, β) (FIG. 6B) on the virtual sphere corresponding to the coordinates (s, t) (FIG. 6A) of the panoramic image are calculated using the equation (1).

【0024】 (α,β)=(a(s),b(t)) (1) この式(1)の詳細は後述する図7において説明する。(Α, β) = (a (s), b (t)) (1) The details of the expression (1) will be described later with reference to FIG.

【0025】この座標(s,t)および画像を取得した
パンチルタ28の角度座標(θ,φ)と、撮像装置のワ
イド端を1倍とした撮像倍率γとを用いて、図6Cに示
すように、取得した画像上の座標データ(ξ,η)を式
(2)を用いて算出する。
Using these coordinates (s, t), the angular coordinates (θ, φ) of the pan tilter 28 from which the image was obtained, and the imaging magnification γ with the wide end of the imaging device being 1, the image is shown in FIG. 6C. Next, the coordinate data (ξ, η) on the acquired image is calculated using the equation (2).

【0026】 (ξ,η)=(f(α,β,θ,φ,γ),g(α,β,θ,φ,γ)) (2) この式(2)の詳細は後述する図8において説明する。(Ξ, η) = (f (α, β, θ, φ, γ), g (α, β, θ, φ, γ)) (2) Details of the equation (2) will be described later. 8 will be described.

【0027】以上の式を用いて、パノラマ画像の各画素
と、取得した画像とを対応付けることで連結画像、すな
わちパノラマ画像を生成している。
Using the above equation, a connected image, that is, a panoramic image is generated by associating each pixel of the panoramic image with the acquired image.

【0028】ここで、上述したパノラマ画像の座標
(s,t)を仮想球面上の角度座標(α,β)に変換す
る方法を図7を用いて説明する。まず、図7Aに示す、
PragMinは、パンチルタ28のホームポジションを0(r
ag)とした時の左端の角度データであり、PragMax は、
パンチルタ28のホームポジションを0(rag)とした時
の右端の角度データである。また、Ny2 は、パノラマ
操作領域6Bの水平方向の座標であり、−Ny2 /2
は、パノラマ操作領域6Bの左端の座標データであり、
Ny2 /2は、パノラマ操作領域6Bの右端の座標デー
タである。
Here, a method of converting the coordinates (s, t) of the panoramic image into angular coordinates (α, β) on the virtual spherical surface will be described with reference to FIG. First, as shown in FIG. 7A,
PragMin sets the home position of the pan tilter 28 to 0 (r
ag) is the angle data at the left end when PragMax is
This is right angle data when the home position of the pan tilter 28 is set to 0 (rag). Further, Ny 2 is a horizontal coordinate of the panorama operation area 6B, -Ny 2/2
Is coordinate data of the left end of the panorama operation area 6B,
Ny 2/2 is the right edge of the coordinate data of the panorama operation area 6B.

【0029】そして、座標データsからパン角度αを求
めるために、 (PragMax−α):(PragMax−PragMin)= (Ny2 /2−
s):Ny2 となり、これよりパン角度αは、 α=PragMax −(PragMax−PragMin)× (Ny2 /2−s)/
Ny2 となる。
Then, in order to obtain the pan angle α from the coordinate data s, (PragMax−α) :( PragMax−PragMin) = (Ny 2 / 2−)
s): Ny 2 next, than this pan angle α, α = PragMax - (PragMax -PragMin) × (Ny 2/2-s) /
Ny 2 .

【0030】また、図7Bに示す、TragMin は、パンチ
ルタ28のホームポジションを0(rag)とした時の上端
の角度データであり、TragMax は、パンチルタ28のホ
ームポジションを0(rag)とした時の下端の角度データ
である。また、Nz2 は、パノラマ操作領域6Bの垂直
方向の座標であり、−Nz2 /2は、パノラマ操作領域
6Bの上端の座標データであり、Nz2 /2は、パノラ
マ操作領域6Bの下端の座標データである。
In FIG. 7B, TragMin is the angle data of the upper end when the home position of the pan tilter 28 is set to 0 (rag), and TragMax is when the home position of the pan tilter 28 is set to 0 (rag). Is the angle data of the lower end of. Further, Nz 2 represents a vertical coordinate of the panorama operation area 6B, -Nz 2/2 is the coordinate data of the upper end of the panorama operation area 6B, Nz 2/2, the lower edge of the panorama operation area 6B It is coordinate data.

【0031】そして、座標データtからチルト角度βを
求めるために、 (TragMax−β):(TragMax−TragMin)= (Nz2 /2−
t):Nz2 となり、これよりチルト角度βは、 β=TragMax −(TragMax−TragMin)× (Nz2 /2−t)/
Nz2 となる。
Then, in order to obtain the tilt angle β from the coordinate data t, (TragMax−β) :( TragMax−TragMin) = (Nz 2 / 2−
t): Nz 2 , from which the tilt angle β is β = TragMax− (TragMax−TragMin) × (Nz 2 / 2−t) /
Nz 2 .

【0032】図8を参照して平面球面変換の処理を説明
する。図8Aに示すように、ホームポジション(緯度、
経度の原点)を向いたカメラ映像上の点(ξ,η)の空
間上の座標は、次のように表せる。
Referring to FIG. 8, the process of plane spherical surface conversion will be described. As shown in FIG. 8A, the home position (latitude,
The coordinates in space of the point (ξ, η) on the camera image facing the origin of the longitude) can be expressed as follows.

【0033】[0033]

【数1】 (Equation 1)

【0034】このとき、 k1 =tan(λ/2γ)/(Ny/2) k2 =tan(μ/2γ)/(Nz/2) となり、(Ny,Nz)は、ポインティングデバイス1
4(マウス8)の駆動範囲(y方向,z方向)であり、
(λ,μ)はワイド端での水平、垂直画角であり、γは
ワイド端を1倍とする現在のズーム相対倍率(倍率情
報)である。
At this time, k 1 = tan (λ / 2γ) / (Ny / 2) k 2 = tan (μ / 2γ) / (Nz / 2), and (Ny, Nz) is the pointing device 1
4 (mouse 8) in the drive range (y direction, z direction)
(Λ, μ) is the horizontal and vertical angle of view at the wide end, and γ is the current zoom relative magnification (magnification information) with the wide end being 1 ×.

【0035】また、図8Bに示すように、一般的に3次
元の回転行列は、次式のように示すことが知られてい
る。
As shown in FIG. 8B, it is generally known that a three-dimensional rotation matrix is represented by the following equation.

【0036】[0036]

【数2】 (Equation 2)

【0037】ホームポジションから角度情報(θ,φ)
だけパン、チルトしたカメラ画像上の一点(ξ,η)
と、ホームポジションから(α,β)の一点が同じ方向
にあることから、次の関係が成り立つ。
Angle information (θ, φ) from home position
Only one point (ξ, η) on the camera image panned and tilted
And one point of (α, β) is in the same direction from the home position, the following relationship holds.

【0038】 Rz (θ)Ry (φ)p=lRz (α)Ry (β)ex これをpについて解くと、[0038] Solving for R z (θ) R y ( φ) p = lR z (α) R y (β) e x This p,

【0039】[0039]

【数3】 (Equation 3)

【0040】ここで、Here,

【0041】[0041]

【数4】 (Equation 4)

【0042】とおくと、次のようにξ,ηが求められ
る。
お く, η are obtained as follows.

【0043】l=1/a ξ=−lb/k1 =−b/k1a η=lc/k2 =c/k2a 以上の式よりホームポジションから(α,β)の角度に
ある座標データより、撮像座標に映し出される(ξ,
η)を求めることができる。
L = 1 / a ξ = -lb / k 1 = -b / k 1a η = lc / k 2 = c / k 2a From the above equation, coordinate data at an angle of (α, β) from the home position. From the imaged coordinates (ξ,
η) can be obtained.

【0044】ξ=(-sin(α−θ)cosβ)/(k1 (cos( α−
θ)cosφ cosβ+ sinφ sinβ)) η=(-cos(α−θ)sinφ cosβ+ cosφ sinβ)/(k2 (c
os( α−θ)cosφ cosβ+ sinφ sinβ)) このようにして、パノラマ画像の座標(s,t)に対応
する仮想球面上の角度座標(α,β)からパンチルタカ
メラ3で取得した画像上の座標データ(ξ,η)を求め
ることによって、パノラマ画像を生成することができ
る。
Ξ = (− sin (α−θ) cosβ) / (k 1 (cos (α−
θ) cosφ cosβ + sinφ sinβ)) η = (-cos (α−θ) sinφ cosβ + cosφ sinβ) / (k 2 (c
os (α−θ) cosφcosβ + sinφsinβ)) In this way, the image acquired by the pan tilter camera 3 from the angular coordinates (α, β) on the virtual sphere corresponding to the coordinates (s, t) of the panoramic image By obtaining the coordinate data (ξ, η), a panoramic image can be generated.

【0045】逆に以下の式より撮像座標に映し出される
(ξ,η)より、(α,β)の角度にある座標データを
求めることもできる。
Conversely, coordinate data at an angle of (α, β) can be obtained from (ξ, η) reflected on the imaging coordinates by the following equation.

【0046】まず、l=|p|であるから、 a=1/√(1+k1 2 ξ2 +k2 2 η2 ) b=−k1 ξ/√(1+k1 2 ξ2 +k2 2 η2 ) c=k2 η/√(1+k1 2 ξ2 +k2 2 η2 ) となる。ただし、√( )は、( )内の計算結果に対
して平方根の処理を行うものである。
[0046] First of all, l = | p | because it is, a = 1 / √ (1 + k 1 2 ξ 2 + k 2 2 η 2) b = -k 1 ξ / √ (1 + k 1 2 ξ 2 + k 2 2 η 2 ) becomes c = k 2 η / √ ( 1 + k 1 2 ξ 2 + k 2 2 η 2). However, √ () performs square root processing on the calculation result in ().

【0047】また、式(3)より、 a=cos(α−θ)cosφ cosβ+ sinφ sinβ b=sin(α−θ)cosβ c=−cos(α−θ)sinφ cosβ+ cosφ sinβ となる。From equation (3), a = cos (α−θ) cosφcosβ + sinφsinβb = sin (α−θ) cosβc = −cos (α−θ) sinφcosβ + cosφsinβ

【0048】以上の式より a sinφ+c sinθ= sinβ tan(α−θ) =b/(a cosφ−c sinθ) であるから、 β=sin -1(sinφ/ √(1+k1 2 ξ2 +k2 2 η2 )+
sinθk2 η/ √(1+k1 2 ξ2 +k2 2 η2 ) α=tan -1(−k1 ξ/( cosφ−k2 η sinθ))+θ となる。
[0048] From the above formula a sinφ + c sinθ = sinβ tan (α-θ) = b / because it is (a cosφ-c sinθ), β = sin -1 (sinφ / √ (1 + k 1 2 ξ 2 + k 2 2 η 2 ) +
sinθk 2 η / √ (1 + k 1 2 ξ 2 + k 2 2 η 2) α = tan -1 (-k 1 ξ / (cosφ-k 2 η sinθ)) + θ become.

【0049】よって、 (α,β)=(f(ξ,η,θ,φ,γ),g(ξ,η,θ,φ,γ)) (4) が求めることができる。Therefore, (α, β) = (f (ξ, η, θ, φ, γ), g (ξ, η, θ, φ, γ)) (4) can be obtained.

【0050】また、誤差を多少許容するのであれば、以
下のように(α,β)を求めることができる。
If the error is somewhat tolerable, (α, β) can be obtained as follows.

【0051】α=θ+(λ/γ)×(ξ/Ny) β=φ+(μ/γ)×(η/Nz) つまり、式(4)は、 (α,β)=(f(ξ,θ,γ),g(η,φ,γ)) (5) となり、簡略化することができる。Α = θ + (λ / γ) × (ξ / Ny) β = φ + (μ / γ) × (η / Nz) That is, the equation (4) can be expressed as follows: (α, β) = (f (ξ, θ, γ), g (η, φ, γ)) (5), which can be simplified.

【0052】上述した式(4)および式(5)に示され
るパンチルタ28の角度情報(α,β)を操作領域6A
の位置座標(ξ,η)から算出する処理を図9を用いて
説明する。まず、操作領域6A中の任意の一点を直接指
定する方法の一例を説明する。図9Aに示すように操作
領域6Aの中心を(0,0)とした相対座標とし、その
操作領域6A上のマウス8の位置座標(ξ,η)が獲得
される。
The angle information (α, β) of the pan tilter 28 shown in the above equations (4) and (5) is stored in the operation area 6A.
The process of calculating from the position coordinates (ξ, η) will be described with reference to FIG. First, an example of a method of directly specifying an arbitrary point in the operation area 6A will be described. As shown in FIG. 9A, relative coordinates are set with the center of the operation area 6A being (0, 0), and the position coordinates (ξ, η) of the mouse 8 on the operation area 6A are obtained.

【0053】次に、操作領域6A中の任意の領域から生
成される任意の一点を指定する他の方法の一例を説明す
る。まず、図9Aに示すように、任意の領域の始点(m
1,n1)が指定された後、任意の領域の終点(m2,
n2)が指定され、それら2点より生成される四角形の
中心座標として、 (ξ,η)=((m1,n1)+(m2,n2))/2 (6) により、任意の一点(ξ,η)が獲得される。
Next, an example of another method for designating an arbitrary point generated from an arbitrary area in the operation area 6A will be described. First, as shown in FIG. 9A, the start point (m
1, n1) is specified, and then the end point (m2,
n2) is designated, and as a central coordinate of a rectangle generated from these two points, an arbitrary point (ξ) is given by (ξ, η) = ((m1, n1) + (m2, n2)) / 2 (6) , Η) are obtained.

【0054】この図9Aは、操作領域6A上のマウス8
(ポインティングデバイス14)の座標であり、操作領
域6A内のマウス8の可動範囲(y方向、z方向)を
(Ny1 ,Nz1 )とする。この任意の一点(マウス
8)の位置座標(ξ,η)と、パンチルタ28が向いて
いる角度情報(θ,φ)と、ズームレンズ16のワイド
端を1倍とする現在のズーム相対倍率とする倍率情報
(γ)とを用いて、式(4)または式(5)からパンチ
ルタ28の角度座標(α,β)が求められる。
FIG. 9A shows the mouse 8 on the operation area 6A.
The coordinates of the pointing device (14), and movable range (y-direction, z-direction) of the mouse 8 in the operation area 6A and the (Ny 1, Nz 1). The position coordinates (ξ, η) of this arbitrary point (mouse 8), angle information (θ, φ) to which the pan tilter 28 faces, and the current zoom relative magnification with the wide end of the zoom lens 16 being 1 × The angle coordinates (α, β) of the pan tilter 28 are obtained from the equation (4) or (5) using the magnification information (γ) to be calculated.

【0055】図9Bに示す角度座標(α,β)は、パン
チルタ28のホームポジションを緯度、経度の原点とし
たとき、ポインティングデバイスで指定された場所を撮
像画面の中心に映し出すためのものである。
The angle coordinates (α, β) shown in FIG. 9B are for projecting the location specified by the pointing device in the center of the image pickup screen when the home position of the pan tilter 28 is the origin of latitude and longitude. .

【0056】この図9において、求められる座標は、モ
ニタ2の画面の絶対座標でも良く、操作領域6Aの中心
を(0,0)とした相対座標でも良い。この座標は、パ
ン方向の座標をξ、m1、m2、θ、αで示し、チルト
方向の座標をη、n1、n2、φ、βで示す。
In FIG. 9, the coordinates obtained may be absolute coordinates on the screen of the monitor 2 or relative coordinates with the center of the operation area 6A being (0, 0). The coordinates in the pan direction are indicated by ξ, m1, m2, θ, α, and the coordinates in the tilt direction are indicated by η, n1, n2, φ, β.

【0057】このように、マウス8が操作領域6Aにあ
る場合、受信データで得られた現在のパンチルタ28の
角度情報(θ,φ)、ズームの倍率情報(γ)、マウス
8で指定された領域のマウス8の位置情報(ξ,η)を
用いて、指定された操作領域6A上の被写体が、操作領
域6Aの中心に来るようなパンチルタ28の角度情報
(α,β)を式(4)または式(5)を用いて算出す
る。こうして得られた、パンチルタ28の角度座標
(α,β)を図11に従って、パンチルタ28の内部位
置情報(PNew,TNew)に変換し、パンチルタ28の絶対
位置駆動命令と共に送信バッファに格納する。また、後
述するように、同時にデータ送信要求フラグ(FlagSo)
をセットし、タイマイベントでデータが送信されるよう
にする。
As described above, when the mouse 8 is in the operation area 6A, the current angle information (θ, φ) of the pan tilter 28 obtained from the received data, the zoom magnification information (γ), and the mouse 8 are designated. Using the position information (ξ, η) of the mouse 8 in the region, the angle information (α, β) of the pan tilter 28 such that the subject on the designated operation region 6A comes to the center of the operation region 6A is calculated by Expression (4). ) Or Equation (5). The angle coordinates (α, β) of the pan tilter 28 thus obtained are converted into internal position information (PNew, TNew) of the pan tilter 28 according to FIG. 11 and stored in the transmission buffer together with the absolute position driving command of the pan tilter 28. Also, as described later, the data transmission request flag (FlagSo)
Is set so that data is transmitted on a timer event.

【0058】パノラマ画像が表示されるパノラマ操作領
域6Bのマウス8の位置座標(ξ,η)を角度座標
(α,β)へ変換する処理を図10を用いて説明する。
パノラマ操作領域6B中の任意の一点を直接指定する方
法は、上述した操作領域6A中の任意の一点を直接指定
する方法と同様の方法で、図10Aに示すように、マウ
ス8の位置座標(ξ,η)を得ることができる。
The process of converting the position coordinates (ξ, η) of the mouse 8 in the panorama operation area 6B on which a panoramic image is displayed into angle coordinates (α, β) will be described with reference to FIG.
The method of directly specifying an arbitrary point in the panorama operation area 6B is the same as the method of directly specifying an arbitrary point in the operation area 6A described above, and as shown in FIG. η, η) can be obtained.

【0059】次に、パノラマ操作領域6B中の任意の領
域から生成される任意の一点を指定する他の方法の一例
を説明する。まず、図10Aに示すように、任意の領域
の始点(m1,n1)が指定された後、任意の領域の終
点(m2,n2)が指定され、式(6)により、任意の
一点(ξ,η)が獲得される。
Next, an example of another method for specifying an arbitrary point generated from an arbitrary area in the panorama operation area 6B will be described. First, as shown in FIG. 10A, after the start point (m1, n1) of an arbitrary area is specified, the end point (m2, n2) of an arbitrary area is specified, and an arbitrary point (ξ) is obtained by Expression (6). , Η) are obtained.

【0060】この図10Aは、パノラマ操作領域6B上
のマウス8(ポインティングデバイス14)の座標であ
り、パノラマ操作領域6B内のマウス8の可動範囲(y
方向、z方向)を(Ny2 ,Nz2 )とする。この可動
範囲は、パノラマ操作領域6B内に点線で示すパンチル
タリミッタ表示6Dによって制限される。このパンチル
タリミッタ表示6Dは、パンチルタカメラ3のレンズの
光軸の可動範囲を示す。すなわち、パンチルタリミッタ
表示6Dを超えて指示することはできない。この任意の
一点の位置座標(ξ,η)と、パンチルタ28が向いて
いる角度情報(θ,φ)と、ズームレンズ16のワイド
端を1倍とする現在のズーム相対倍率とする倍率情報
(γ)とを用いて、式(7)、式(8)および式(9)
からパノラマ操作領域6Bの位置座標(x,y)、画角
情報(s,t)およびパンチルタ28の角度座標(α,
β)が求められる。
FIG. 10A shows the coordinates of the mouse 8 (pointing device 14) on the panoramic operation area 6B, and the movable range (y) of the mouse 8 in the panoramic operation area 6B.
(Direction, z direction) is (Ny 2 , Nz 2 ). This movable range is limited by a pan / tilt limiter display 6D indicated by a dotted line in the panoramic operation area 6B. The pan tilter limiter display 6D indicates the movable range of the optical axis of the lens of the pan tilter camera 3. That is, it is impossible to instruct beyond the pan / tilt limiter display 6D. The position coordinates (ξ, η) of this arbitrary point, angle information (θ, φ) at which the pan tilter 28 is facing, and magnification information (current zoom relative magnification with the wide end of the zoom lens 16 being 1 ×) γ), the equations (7), (8) and (9)
From the position coordinates (x, y) of the panorama operation area 6B, the angle of view information (s, t), and the angle coordinates (α,
β) is required.

【0061】 (x,y)=(f0 (θ),g0 (φ)) (7) (s,t)=(f1 (γ),g1 (γ)) (8) (α,β)=(f(ξ),g(η)) (9) 図10Bに示す位置座標(x,y)は、パンチルタ28
のホームポジションを緯度、経度の原点としたとき、現
在のパンチルタ28の向きであり、画角情報(s,t)
は、現在操作領域6Aに表示されている画角である。こ
の図10Bは、パノラマ操作領域6B上のズーム、パン
チルタの状態を表示したものである。
(X, y) = (f 0 (θ), g 0 (φ)) (7) (s, t) = (f 1 (γ), g 1 (γ)) (8) (α, β) = (f (ξ), g (η)) (9) The position coordinates (x, y) shown in FIG.
Is the current orientation of the pan tilter 28 and the angle of view information (s, t)
Is the angle of view currently displayed in the operation area 6A. FIG. 10B shows the state of zoom and pan / tilt on the panorama operation area 6B.

【0062】図10Cに示す角度座標(α,β)は、パ
ンチルタ28のホームポジションを緯度、経度の原点と
したとき、ポインティングデバイスで指定された場所を
撮像画面の中心に映し出すためのものである。(PragMa
x ,TragMax)〜(PragMin ,TragMin)は、パンチルタの
駆動可能範囲、すなわちパンチルタリミッタ表示6Dで
示す範囲である。この図10Cは、パンチルタ可動範囲
上の駆動目標値を表したものである。
The angle coordinates (α, β) shown in FIG. 10C are for projecting the location specified by the pointing device at the center of the image pickup screen when the home position of the pan tilter 28 is the origin of latitude and longitude. . (PragMa
x, TragMax) to (PragMin, TragMin) are the drive range of the pan tilter, that is, the range indicated by the pan tilter limiter display 6D. FIG. 10C shows a drive target value in the pan tilter movable range.

【0063】この図10において、求められる座標は、
モニタ2の画面の絶対座標でも良く、パノラマ操作領域
6Bの中心を(0,0)とした相対座標でも良い。この
座標は、パン方向の座標をξ、m1、m2、x、s、α
で示し、チルト方向の座標をη、n1、n2、y、t、
βで示す。
In FIG. 10, the coordinates obtained are:
The coordinates may be absolute coordinates on the screen of the monitor 2 or relative coordinates with the center of the panorama operation area 6B being (0, 0). These coordinates are represented by 座標, m1, m2, x, s, α in the pan direction.
And the coordinates in the tilt direction are η, n1, n2, y, t,
Indicated by β.

【0064】このように、マウス8がパノラマ操作領域
6Bにある場合、マウス8で指定された領域のマウス8
の位置情報(ξ,η)を用いて、指定された操作領域6
A上の被写体が、操作領域6Aの中心に来るようなパン
チルタ28の角度情報(α,β)を式(9)を用いて算
出する。こうして得られた、パンチルタ28の角度座標
(α,β)を図11に従って、パンチルタ28の内部位
置情報(PNew,TNew)に変換し、パンチルタ28の絶対
位置駆動命令と共に送信バッファに格納する。また、後
述するように、同時にデータ送信要求フラグ(FlagSo)
をセットし、タイマイベントでデータが送信されるよう
にする。
As described above, when the mouse 8 is in the panoramic operation area 6B, the mouse 8 in the area designated by the mouse 8
Using the position information (ξ, η) of the
The angle information (α, β) of the pan tilter 28 such that the subject on A comes to the center of the operation area 6A is calculated by using Expression (9). The angle coordinates (α, β) of the pan tilter 28 thus obtained are converted into internal position information (PNew, TNew) of the pan tilter 28 according to FIG. 11 and stored in the transmission buffer together with the absolute position driving command of the pan tilter 28. In addition, as described later, the data transmission request flag (FlagSo)
Is set so that data is transmitted on a timer event.

【0065】ここで、上述したパンチルタ28内部の位
置情報(p,t)を角度情報(θ,φ)に変換する方法
並びに角度座標(α,β)をパンチルタ28内部の位置
情報(PNew,TNew )に変換する方法を図11を用いて説
明する。まず、図11Aに示す、PragMin は、パンチル
タ28のホームポジションを0(rag)とした時の左端の
角度データであり、PragMax は、パンチルタ28のホー
ムポジションを0(rag)とした時の右端の角度データで
ある。また、PdatMin は、パンチルタコントローラ25
の左端の内部カウントデータであり、PdatMax は、パン
チルタコントローラ25の右端の内部カウントデータで
ある。
Here, the method of converting the above-mentioned position information (p, t) inside the pan tilter 28 into angle information (θ, φ) and the angle coordinate (α, β) into the position information (PNew, TNew) inside the pan tilter 28 ) Will be described with reference to FIG. First, PragMin shown in FIG. 11A is the left end angle data when the home position of the pan tilter 28 is set to 0 (rag), and PragMax is the right end angle data when the home position of the pan tilter 28 is set to 0 (rag). This is angle data. Also, PdatMin is a pan tilter controller 25
Is the internal count data at the left end, and PdatMax is the internal count data at the right end of the pan tilter controller 25.

【0066】そして、パンデータpからパン角度θを求
めるために、 (PragMax−θ):(PragMax−PragMin)=(PdatMax−p):
(PdatMax−PdatMin) となり、これよりパン角度θは、 θ=PragMax −(PragMax−PragMin)×(PdatMax−p)/(P
datMax−PdatMin) となる。
Then, in order to obtain the pan angle θ from the pan data p, (PragMax−θ): (PragMax−PragMin) = (PdatMax−p):
(PdatMax−PdatMin), from which the pan angle θ is: θ = PragMax− (PragMax−PragMin) × (PdatMax−p) / (P
datMax-PdatMin).

【0067】またこれより、パンデータpは、 p=PdatMax −(PragMax−θ)×(PdatMax−PdatMin)/
(PragMax−PragMin) となる。
From this, the pan data p is obtained by the following equation: p = PdatMax− (PragMax−θ) × (PdatMax−PdatMin) /
(PragMax-PragMin).

【0068】また、パン角度αからパンデータPNewを求
めるために、 (PragMax−α):(PragMax−PragMin)=(PdatMax−p-ne
w):(PdatMax−PdatMin) となり、これよりパンデータPNewは、 PNew=PragMax −(PragMax−α)×(PdatMax−PdatMin)
/(PragMax−PragMin) となる。
In order to determine the pan data PNew from the pan angle α, (PragMax−α) :( PragMax−PragMin) = (PdatMax−p−ne)
w): (PdatMax-PdatMin), from which the pan data PNew is PNew = PragMax− (PragMax−α) × (PdatMax−PdatMin)
/ (PragMax-PragMin).

【0069】また、図11Bに示す、TragMin は、パン
チルタ28のホームポジションを0(rag)とした時の上
端の角度データであり、TragMax は、パンチルタ28の
ホームポジションを0(rag)とした時の下端の角度デー
タである。また、TdatMin は、パンチルタコントローラ
25の上端の内部カウントデータであり、TdatMax は、
パンチルタコントローラ25の下端の内部カウントデー
タである。
Also, TragMin shown in FIG. 11B is angle data of the upper end when the home position of the pan tilter 28 is set to 0 (rag), and TragMax is obtained when the home position of the pan tilter 28 is set to 0 (rag). Is the angle data of the lower end of. TdatMin is internal count data at the upper end of the pan tilter controller 25, and TdatMax is
This is internal count data at the lower end of the pan tilter controller 25.

【0070】そして、チルトデータtからチルト角度φ
を求めるために、 (TragMax−φ):(TragMax−TragMin)=(TdatMax−t):
(TdatMax−TdatMin) となり、これよりチルト角度φは、 φ=TragMax −(TragMax−TragMin)×(TdatMax−t)/(T
datMax−TdatMin) となる。
Then, the tilt angle φ is obtained from the tilt data t.
(TragMax−φ) :( TragMax−TragMin) = (TdatMax−t):
(TdatMax−TdatMin), from which the tilt angle φ is: φ = TragMax− (TragMax−TragMin) × (TdatMax−t) / (T
datMax-TdatMin).

【0071】またこれより、チルトデータtは、 t=TdatMax −(TragMax−φ)×(TdatMax−TdatMin)/
(TragMax−TragMin) となる。
From this, the tilt data t is calculated as follows: t = TdatMax− (TragMax−φ) × (TdatMax−TdatMin) /
(TragMax-TragMin).

【0072】また、チルト角度βからチルトデータTNew
を求めるために、 (TragMax−β):(TragMax−TragMin)=(TdatMax−TNe
w) :(TdatMax−TdatMin) となり、これよりチルトデータTNewは、 TNew=TragMax −(TragMax−β)×(TdatMax−TdatMin)
/(TragMax−TragMin) となる。
Further, the tilt data TNew is obtained from the tilt angle β.
(TragMax−β) :( TragMax−TragMin) = (TdatMax−TNe
w): (TdatMax−TdatMin). From this, the tilt data TNew is obtained as follows: TNew = TragMax− (TragMax−β) × (TdatMax−TdatMin)
/ (TragMax-TragMin).

【0073】次に、上述したパノラマ操作領域6B内の
位置座標(ξ,η)をパンチルタ28の角度座標(α,
β)へ変換する方法並びにパンチルタ28の角度情報
(θ,φ)をパノラマ操作領域6B内の位置座標(x,
y)へ変換する方法を図12を用いて説明する。まず、
図12Aに示す、PragMin は、パンチルタ28
のホームポジションを0(rag)とした時の左端の角度デ
ータであり、PragMax は、パンチルタ28のホームポジ
ションを0(rag)とした時の右端の角度データである。
また、Ny2 は、パノラマ操作領域6Bの水平方向の座
標であり、−Ny2 /2は、パノラマ操作領域6Bの左
端の座標データであり、Ny2 /2は、パノラマ操作領
域6Bの右端の座標データである。
Next, the position coordinates (ξ, η) in the panorama operation area 6B are converted to the angle coordinates (α,
β) and the angle information (θ, φ) of the pan tilter 28 is converted into position coordinates (x,
The method of conversion to y) will be described with reference to FIG. First,
PragMin shown in FIG.
Is the left end angle data when the home position of the pan tilter 28 is 0 (rag), and PragMax is the right end angle data when the home position of the pan tilter 28 is 0 (rag).
Further, Ny 2 is a horizontal coordinate of the panorama operation area 6B, -Ny 2/2 is the left end of the coordinate data of the panorama operation area 6B, Ny 2/2 is the right end of the panorama operation area 6B It is coordinate data.

【0074】そして、座標データξからパン角度αを求
めるために、 (PragMax−α):(PragMax−PragMin)= (Ny2 /2−
ξ):Ny2 となり、これよりパン角度αは、 α=PragMax −(PragMax−PragMin)× (Ny2 /2−ξ)/
Ny2 となる。
Then, in order to obtain the pan angle α from the coordinate data ξ, (PragMax−α) :( PragMax−PragMin) = (Ny 2 / 2−
xi]): Ny 2 next, than this pan angle α, α = PragMax - (PragMax -PragMin) × (Ny 2/2-ξ) /
Ny 2 .

【0075】また、パン角度θから座標データxを求め
るために、 (PragMax−θ):(PragMax−PragMin)= (Ny2 /2−
x):Ny2 となり、これより座標データxは、 x=Ny2 /2−(PragMax−θ)×Ny2 /(PragMax−PragMi
n) となる。
In order to obtain the coordinate data x from the pan angle θ, (PragMax−θ): (PragMax−PragMin) = (Ny 2 / 2−)
x): Ny 2 , and the coordinate data x is x = Ny 2 / 2− (PragMax−θ) × Ny 2 / (PragMax−PragMi)
n).

【0076】また、図12Bに示す、TragMin は、パン
チルタ28のホームポジションを0(rag)とした時の上
端の角度データであり、TragMax は、パンチルタ28の
ホームポジションを0(rag)とした時の下端の角度デー
タである。また、Nz2 は、パノラマ操作領域6Bの垂
直方向の座標であり、−Nz2 /2は、パノラマ操作領
域6Bの上端の座標データであり、Nz2 /2は、パノ
ラマ操作領域6Bの下端の座標データである。
In FIG. 12B, TragMin is the angle data of the upper end when the home position of the pan tilter 28 is set to 0 (rag), and TragMax is obtained when the home position of the pan tilter 28 is set to 0 (rag). Is the angle data of the lower end of. Further, Nz 2 represents a vertical coordinate of the panorama operation area 6B, -Nz 2/2 is the coordinate data of the upper end of the panorama operation area 6B, Nz 2/2, the lower edge of the panorama operation area 6B It is coordinate data.

【0077】そして、座標データηからチルト角度βを
求めるために、 (TragMax−β):(TragMax−TragMin)= (Nz2 /2−
η):Nz2 となり、これよりチルト角度βは、 β=TragMax −(TragMax−TragMin)× (Nz2 /2−η)/
Nz2 となる。
Then, in order to obtain the tilt angle β from the coordinate data η, (TragMax−β) :( TragMax−TragMin) = (Nz 2 / 2−
η): Nz 2 and the tilt angle β is β = TragMax− (TragMax−TragMin) × (Nz 2 / 2−η) /
Nz 2 .

【0078】また、チルト角度φから座標データyを求
めるために、 (TragMax−φ):(TragMax−TragMin)= (Nz2 /2−
y):Nz2 となり、これより座標データyは、 y=Nz2 /2−(TragMax−θ)×Nz2 /(TragMax−TragMi
n) となる。
To find the coordinate data y from the tilt angle φ, (TragMax−φ) :( TragMax−TragMin) = (Nz 2 / 2−
y): Nz 2 next, than this coordinate data y is, y = Nz 2 / 2- ( TragMax-θ) × Nz 2 / (TragMax-TragMi
n).

【0079】パンチルタ28が切り出している画角情報
(ψ,ω)からパノラマ操作領域6B内の画枠6Cの画
角情報(s,t)へ変換する方法を図13を用いて説明
する。まず、図13Aには、現在のパンチルタ28の画
角情報(ψ,ω)を示す。この画角情報(ψ,ω)は、 (ψ,ω)=1/γ×(ψ0,ω0) によって求められる。このとき、(ψ0,ω0)はワイ
ド端での水平画角と垂直画角を示し、γはワイド端を1
倍としたときのレンズ倍率を示す。
A method of converting the angle-of-view information (ψ, ω) cut out by the pan tilter 28 into the angle-of-view information (s, t) of the image frame 6C in the panoramic operation area 6B will be described with reference to FIG. First, FIG. 13A shows current view angle information (ψ, ω) of the pan tilter 28. This angle-of-view information (ψ, ω) is obtained by (ψ, ω) = 1 / γ × (ψ0, ω0). At this time, (ψ0, ω0) indicates the horizontal angle of view and the vertical angle of view at the wide end, and γ indicates 1 at the wide end.
This shows the lens magnification when the magnification is set to "2".

【0080】図13Bに示すように、PragMin は、パン
チルタ28のホームポジションを0(rag)とした時の左
端の角度データであり、PragMax は、パンチルタ28の
ホームポジションを0(rag)とした時の右端の角度デー
タである。また、Ny2 は、パノラマ操作領域6Bの水
平方向の座標であり、−Ny2 /2は、パノラマ操作領
域6Bの左端の座標データであり、Ny2 /2は、パノ
ラマ操作領域6Bの右端の座標データである。
As shown in FIG. 13B, PragMin is the left end angle data when the home position of the pan tilter 28 is set to 0 (rag), and PragMax is when the home position of the pan tilter 28 is set to 0 (rag). Is the right end angle data. Further, Ny 2 is a horizontal coordinate of the panorama operation area 6B, -Ny 2/2 is the left end of the coordinate data of the panorama operation area 6B, Ny 2/2 is the right end of the panorama operation area 6B It is coordinate data.

【0081】そして、水平画角ψから水平画角sを求め
るために、 ψ:(PragMax−PragMin)=s:Ny2 となり、これより水平画角sは、 s=ψ×Ny2 /(PragMax−PragMin) となる。
Then, in order to obtain the horizontal angle of view s from the horizontal angle of view ψ, ψ: (PragMax−PragMin) = s: Ny 2. From this, the horizontal angle of view s is given by s = × Ny 2 / (PragMax −PragMin).

【0082】また、図13Cに示す、TragMin は、パン
チルタ28のホームポジションを0(rag)とした時の下
端の角度データであり、TragMax は、パンチルタ28の
ホームポジションを0(rag)とした時の上端の角度デー
タである。また、Nz2 は、パノラマ操作領域6Bの垂
直方向の座標であり、−Nz2 /2は、パノラマ操作領
域6Bの下端の座標データであり、Nz2 /2は、パノ
ラマ操作領域6Bの上端の座標データである。
In FIG. 13C, TragMin is angle data of the lower end when the home position of the pan tilter 28 is set to 0 (rag), and TragMax is obtained when the home position of the pan tilter 28 is set to 0 (rag). Is the angle data at the upper end of. Further, Nz 2 represents a vertical coordinate of the panorama operation area 6B, -Nz 2/2 is the coordinate data of the lower end of the panorama operation area 6B, Nz 2/2, the upper edge of the panorama operation area 6B It is coordinate data.

【0083】そして、垂直画角ωから垂直画角tを求め
るために、 ω:(TragMax−TragMin)=t:Nz2 となり、これより垂直画角tは、 t=ω×Nz2 /(TragMax−TragMin) となる。
Then, in order to obtain the vertical angle of view t from the vertical angle of view ω, ω: (TragMax−TragMin) = t: Nz 2. Thus, the vertical angle of view t is t = ω × Nz 2 / (TragMax −TragMin).

【0084】これらより、図13Dに示す画角情報
(s,t)がパノラマ操作領域6B内に画枠6Cとし
て、表示される。
Thus, the view angle information (s, t) shown in FIG. 13D is displayed as a picture frame 6C in the panoramic operation area 6B.

【0085】次に、上述したズームレンズ16の位置情
報(z)を倍率情報(γ)に変換する方法を図14を用
いて説明する。この図14は、縦軸にレンズ倍率情報を
表し、横軸にズームレンズの内部情報を表す。取得した
ズームレンズ16の位置情報(z)は、図14に示す変
換グラフに照らし合わし、コンピュータ1上で倍率情報
(γ)に変換される。一例として、ROMテーブルまた
は数式によって、位置情報(z)が倍率情報(γ)に変
換される。
Next, a method for converting the position information (z) of the zoom lens 16 into magnification information (γ) will be described with reference to FIG. In FIG. 14, the vertical axis represents lens magnification information, and the horizontal axis represents internal information of the zoom lens. The acquired position information (z) of the zoom lens 16 is converted into magnification information (γ) on the computer 1 by referring to a conversion graph shown in FIG. As an example, the position information (z) is converted into magnification information (γ) by a ROM table or a mathematical expression.

【0086】次に、コンピュータ1内の制御アルゴリズ
ムの一例を図15を用いて説明する。まず、ステップS
1では、プログラムがスタートすると、図2に示すよう
に、モニタ2上に操作領域6A、パノラマ操作領域6
B、カーソル7、さらにパンチルタリミッタ表示6Dに
示すパンチルタリミッタが設定される初期化が行われ
る。パンチルタリミッタの範囲は、固定値でも良いし、
その範囲を変更したいときに自由に変更することができ
るようにしても良い。そして、ステップS2では、コン
ピュータ1とモードコントローラ23とが所定の周期で
通信を行うために、タイマが設定される。これらの初期
設定動作が完了すると、ステップS3の各種発生するイ
ベント待ち状態に制御が移り、発生したイベントに対応
してステップS3から制御が移る。発生するイベント
は、先に設定したタイマイベント(ステップS4)、パ
ノラマ作成要求イベント(ステップS5)がある。
Next, an example of a control algorithm in the computer 1 will be described with reference to FIG. First, step S
In FIG. 1, when the program is started, the operation area 6A and the panorama operation area 6 are displayed on the monitor 2 as shown in FIG.
B, the cursor 7, and an initialization for setting the pan / tilt limiter shown in the pan / tilt limiter display 6D are performed. The range of the pantilter limiter may be a fixed value,
The range may be freely changed when it is desired to change the range. Then, in step S2, a timer is set so that the computer 1 and the mode controller 23 perform communication at a predetermined cycle. When these initialization operations are completed, the control shifts to an event waiting state in step S3 where various events occur, and the control shifts from step S3 in response to the event that has occurred. The events that occur include the timer event (step S4) set previously and a panorama creation request event (step S5).

【0087】パノラマ作成要求イベントのアルゴリズム
の詳細について、図16のフローチャートを用いて説明
する。パノラマ作成要求イベントが発生すると、ステッ
プS8では、パノラマ作成要求(FlagPa)がセット(Tr
ue)される。
The details of the algorithm of the panorama creation request event will be described with reference to the flowchart of FIG. When a panorama creation request event occurs, in step S8, a panorama creation request (FlagPa) is set (Tr
ue).

【0088】タイマイベントのアルゴリズムの詳細につ
いて、図17のフローチャートを用いて説明する。この
一例のタイマイベントは、周期的にコンピュータ1とモ
ードコントローラ23との通信を行うために発生するイ
ベントである。このタイマイベントは、一例として50
msec間隔で発生する。タイマイベントが発生する
と、ステップS11では、通信ポートの設定が完了して
いるか否かが判断される。通信ポートの設定が完了して
いる(済)と判断されると、ステップS12へ制御が移
り、通信ポートの設定が完了していない(未)と判断さ
れると、ステップS18へ制御が移る。ここでは、通信
ポートの設定が完了していない初回のみ、ステップS1
8に制御が移り、通信ポートの開設処理が行われる。具
体的には、ステップS18において、コンピュータ1上
のRS−232Cポートの開設が行われる。
The details of the timer event algorithm will be described with reference to the flowchart of FIG. The timer event of this example is an event that occurs to periodically perform communication between the computer 1 and the mode controller 23. This timer event is, for example, 50
It occurs at msec intervals. When the timer event occurs, in step S11, it is determined whether the setting of the communication port has been completed. If it is determined that the communication port setting has been completed (completed), the control moves to step S12. If it is determined that the communication port setting has not been completed (not yet), the control moves to step S18. Here, only in the first time when the setting of the communication port is not completed, step S1
Then, control is transferred to step 8 to open a communication port. Specifically, in step S18, an RS-232C port on the computer 1 is opened.

【0089】それ以降のタイマイベントでは、受信デー
タの確認、解析処理、パンチルタ28の駆動命令など送
信バッファにたまっているデータの送信処理、またはパ
ンチルタ28、ズームレンズ16の状態確認要求のため
の通信データの送信処理が行われる。このアルゴリズム
では、ステップS11からステップS12へ制御が移
り、ステップS12では、受信バッファのデータの有無
が確認され、受信データが存在する場合、ステップS1
3に制御が移り、受信データが存在しない場合、ステッ
プS14に制御が移る。ステップS13では、受信バッ
ファに存在する受信データが解析され、モードコントロ
ーラ23に要求したパンチルタ28の位置情報(p,
t)や、ズームレンズ16の位置情報(z)が取得され
る。これらのデータが上述した図11、図14の方式に
従い、パンチルタ28の角度情報(θ,φ)、ズームレ
ンズ16の倍率情報(γ)に変換される。
In the subsequent timer events, confirmation of received data, analysis processing, transmission processing of data stored in the transmission buffer such as a driving command of the pan / tilt 28, or communication for requesting a state confirmation of the pan / tilt 28 and the zoom lens 16 are performed. Data transmission processing is performed. In this algorithm, the control shifts from step S11 to step S12. In step S12, the presence or absence of data in the reception buffer is confirmed.
When the control moves to 3 and there is no received data, the control moves to step S14. In step S13, the reception data existing in the reception buffer is analyzed, and the position information (p, p,
t) and position information (z) of the zoom lens 16 are acquired. These data are converted into the angle information (θ, φ) of the pan tilter 28 and the magnification information (γ) of the zoom lens 16 in accordance with the methods shown in FIGS.

【0090】次に、ステップS14では、データの送信
要求の有無が確認される。データの送信要求が存在する
(FlagSo==True)場合、ステップS19に制御が移
り、ステップS19では、送信バッファに格納されてい
るデータの送信処理がなされた後、送信要求フラグ(Fl
agSo)がリセット(False)される。この送信バッファに
たまったデータの一例として、マウス8で設定されたパ
ンチルタ28の駆動命令のデータなどがある。そして、
送信要求がない(FlagSo==False)場合、ステップS1
5へ制御が移る。ステップS15では、送信要求の内部
カウンタ(ReqCnt)が0が否かが判断され、送信要求の
内部カウンタが0の場合(ReqCnt=0)、ステップS1
6へ制御が移り、送信要求の内部カウンタが0でない場
合(ReqCnt≠0)、ステップS20へ制御が移る。
Next, in step S14, the presence or absence of a data transmission request is confirmed. If there is a data transmission request (FlagSo == True), the control shifts to step S19. In step S19, after the transmission processing of the data stored in the transmission buffer is performed, the transmission request flag (Fl
agSo) is reset (False). As an example of the data stored in the transmission buffer, there is data of a driving command of the pan tilter 28 set by the mouse 8 and the like. And
If there is no transmission request (FlagSo == False), step S1
The control moves to 5. In step S15, it is determined whether the internal counter (ReqCnt) of the transmission request is 0. If the internal counter of the transmission request is 0 (ReqCnt = 0), step S1 is performed.
When the internal counter of the transmission request is not 0 (ReqCnt ≠ 0), the control shifts to step S20.

【0091】ステップS16では、パンチルタ28およ
びズームレンズ16の位置要求命令がモードコントロー
ラ23に送信される。そして、ステップS17では、送
信要求の内部カウンタ(ReqCnt)がインクリメントされ
る。
In step S16, a position request command for the pan tilter 28 and the zoom lens 16 is transmitted to the mode controller 23. Then, in step S17, the internal counter (ReqCnt) of the transmission request is incremented.

【0092】ステップS20では、パノラマ作成要求が
存在するか否かが判断され、パノラマ作成要求が存在す
る場合(FlagPa==True)、ステップS21へ制御が移
り、パノラマ作成要求が存在しない場合(FlagPa==Fa
lse)、ステップS22へ制御が移る。ステップS21で
は、後述するパノラマ作成処理が実行される。そして、
ステップS22では、送信要求の内部カウンタ(ReqCn
t)が0にされる。
In step S20, it is determined whether or not there is a panorama creation request. If there is a panorama creation request (FlagPa == True), control is transferred to step S21, and if there is no panorama creation request (FlagPa). == Fa
lse), control transfers to step S22. In step S21, a panorama creation process described later is executed. And
In step S22, an internal counter (ReqCn
t) is set to 0.

【0093】次に、上述したパノラマ作成処理のアルゴ
リズムについて図18のフローチャートを用いて説明す
る。パノラマ作成は、パノラマ作成要求イベントによっ
て設定(FlagPa=True)される。このパノラマ作成要求
イベントが予め発生すると、上述したようにタイマイベ
ント時、パノラマ作成処理(ステップS21)が実行さ
れる。このフローチャートでは、パノラマ作成処理の手
順をパノラマカウンタ(PanoCnt)に従って行っている。
Next, the algorithm of the above-described panorama creation processing will be described with reference to the flowchart of FIG. The panorama creation is set (FlagPa = True) by a panorama creation request event. When the panorama creation request event occurs in advance, the panorama creation process (step S21) is executed at the time of the timer event as described above. In this flowchart, the procedure of the panorama creation processing is performed according to the panorama counter (PanoCnt).

【0094】まず、この処理が開始されると、撮像装置
の画角を最広角に設定する処理が行われる。すなわち、
ステップS31において、パノラマカウンタ(PanoCnt)
が1であるか否かが判断され、パノラマカウンタが1で
ある(PanoCnt ==1)と判断された場合、ステップS
43へ制御が移り、パノラマカウンタが1でない(Pano
Cnt ≠1)と判断された場合、ステップS32へ制御が
移る。ステップS43では、ズームをワイド端に移動す
る駆動命令を送信すると共に、パノラマカウンタをイン
クリメントする。これは、より広範囲のパノラマ画像
を、少ない画像取得回数で行うためである。
First, when this process is started, a process for setting the angle of view of the imaging device to the widest angle is performed. That is,
In step S31, the panorama counter (PanoCnt)
Is determined to be 1 or not, and if it is determined that the panorama counter is 1 (PanoCnt == 1), step S
43, the panorama counter is not 1 (Pano
If it is determined that Cnt ≠ 1), the control moves to step S32. In step S43, a drive command for moving the zoom to the wide end is transmitted, and the panorama counter is incremented. This is for performing a panoramic image of a wider range with a small number of image acquisitions.

【0095】ステップS32では、パノラマカウンタが
2であるか否かが判断され、パノラマカウンタが2であ
る(PanoCnt ==2)と判断された場合、ステップS4
4へ制御が移り、パノラマカウンタが2でない(PanoCn
t ≠2)と判断された場合、ステップS33へ制御が移
る。ステップS44では、パンチルタ28を最初に撮影
するポジション(POS(PanoCnt −2))に移動する
駆動命令を送信すると共に、パノラマカウンタをインク
リメントする。すなわち、POS(PanoCnt −2)で示
すパンチルタ28の画角を取得する最初の位置(図5の
1で示す位置)に移動する処理を行う。
In step S32, it is determined whether or not the panorama counter is 2, and if it is determined that the panorama counter is 2 (PanoCnt == 2), step S4 is performed.
The control moves to 4 and the panorama counter is not 2 (PanoCn
If it is determined that t ≠ 2), the control moves to step S33. In step S44, a drive command to move to the position (POS (PanoCnt-2)) where the pan tilter 28 is first photographed is transmitted, and the panorama counter is incremented. That is, a process of moving to the first position (the position indicated by 1 in FIG. 5) for acquiring the angle of view of the pan tilter 28 indicated by POS (PanoCnt-2) is performed.

【0096】また、パノラマカウンタ(PanoCnt)が3以
降の場合、設定したズーム、パンチルタ位置に撮像装置
が移動したのを確認し、指定位置に到達した場合、画像
のキャプチャを行う。ステップS33では、ズームレン
ズ16の位置情報(z)の確認が行われ、ズーム位置が
あっている場合、ステップS34へ制御が移り、ズーム
位置があっていない場合、このフローチャートは終了す
る。さらに、ステップS34では、パンチルタ28の位
置情報(p,t)の確認が行われ、パンチルタ位置があ
っている(==POS(PanoCnt −3))場合、ステッ
プS35へ制御が移り、パンチルタ位置があっていない
(≠POS(PanoCnt −3))場合、このフローチャー
トは終了する。そして、ステップS35では、現在のパ
ンチルタ位置の画像が取得される。取得された画像は、
ビットマップの画像ファイルとしてメモリに記憶され
る。
When the panorama counter (PanoCnt) is 3 or more, it is confirmed that the imaging apparatus has moved to the set zoom and pan / tilt positions, and when the panorama counter reaches the designated position, an image is captured. In step S33, the position information (z) of the zoom lens 16 is confirmed. If the zoom position is present, the control proceeds to step S34. If the zoom position is not present, this flowchart ends. Further, in step S34, the position information (p, t) of the pan tilter 28 is confirmed, and if the pan tilter position is present (== POS (PanoCnt-3)), the control proceeds to step S35, where the pan tilter position is changed. If not (≠ POS (PanoCnt-3)), this flowchart ends. Then, in step S35, an image at the current pan tilter position is acquired. The acquired image is
It is stored in the memory as a bitmap image file.

【0097】ステップS36では、パンチルタ28を次
に撮影するポジション(POS(PanoCnt −2))に移
動する駆動命令が送信される。ステップS37では、上
述したように、取得した画像を仮想球面にデータ変換
し、重複画像、不要画像の削除を行う画像の連結処理が
行われる。また、コンピュータ1の処理能力がない場
合、このステップS37では、水平方向および垂直方向
に圧縮も行う。ステップS38では、連結された画像が
緯度、経度で正規化され、表示される。そして、ステッ
プS39では、パノラマカウンタ(PanoCnt)がインクリ
メントされる。
In step S36, a drive command to move the pan tilter 28 to the next position for photographing (POS (PanoCnt-2)) is transmitted. In step S37, as described above, the acquired image is subjected to data conversion into a virtual spherical surface, and a process of linking images in which a duplicate image and an unnecessary image are deleted is performed. If the computer 1 does not have the processing capability, in step S37, compression is also performed in the horizontal and vertical directions. In step S38, the connected images are normalized by latitude and longitude and displayed. Then, in step S39, the panorama counter (PanoCnt) is incremented.

【0098】すなわち、次の画像取得位置にパンチルタ
28を移動する処理を行い、続いて、先にキャプチャし
た画像の仮想球面への写像処理、水平、垂直方向への圧
縮処理、重複画像、不要画像の削除処理等を行い、パノ
ラマ画像作成の進行状況を表示する。以上の動作をパノ
ラマ画像が完成するまで行う。
That is, a process of moving the pan tilter 28 to the next image acquisition position is performed, followed by a process of mapping the previously captured image onto the virtual sphere, a process of compressing the image in the horizontal and vertical directions, an overlapping image, and an unnecessary image. And the progress of panorama image creation is displayed. The above operation is performed until the panoramic image is completed.

【0099】ステップS40では、パノラマ画像が完全
に完成したか否かが判断され、完成したと判断された場
合、ステップS41へ制御が移り、未完成と判断された
場合、このフローチャートは終了し、再度上述の制御を
パノラマ画像が完成するまで繰り返す。ステップS41
では、パノラマ画像が完成したので、パノラマ作成要求
(FlagPa)がリセット(False)される。そして、ステッ
プS42では、完成されたパノラマ画像が保存される。
In step S40, it is determined whether or not the panorama image has been completely completed. If it is determined that the panorama image has been completed, control is transferred to step S41. If it is determined that the panorama image has not been completed, this flowchart ends. The above control is repeated until the panoramic image is completed. Step S41
Then, since the panorama image is completed, the panorama creation request (FlagPa) is reset (False). Then, in step S42, the completed panoramic image is stored.

【0100】このフローチャートでは、図5に示す1の
画像はパノラマカウンタ(PanoCnt)が3のときに獲得で
き、図5に示す2の画像はパノラマカウンタが4のとき
に獲得でき、そしてパノラマカウンタが12のときに獲
得される図5に示す10の画像が獲得されると、パノラ
マ画像を生成するための全ての画像が獲得され、パノラ
マ画像が完成する。
In this flowchart, the image 1 shown in FIG. 5 can be obtained when the panorama counter (PanoCnt) is 3, the image 2 shown in FIG. 5 can be obtained when the panorama counter is 4, and the panorama counter is obtained. When 10 images shown in FIG. 5 acquired at 12 are acquired, all images for generating a panoramic image are acquired, and a panoramic image is completed.

【0101】なお、駆動装置は、ここで指令される目標
位置に対して、常に同位置方向から進入するように動作
し、画像連結の際発生し得る駆動系の機構の遊び(例え
ば、ギアのバックラッシュ)による、連結画像のずれを
補正している。
The drive device operates so as to always enter the target position designated here from the same position direction, and play of the drive system mechanism (for example, the (Backlash) to correct the displacement of the connected image.

【0102】上述したこの発明の一実施形態によって、
図21Aに示すような10枚の映像から図21Cに示す
ようなパノラマ画像を得ることができる。
According to one embodiment of the present invention described above,
A panoramic image as shown in FIG. 21C can be obtained from ten images as shown in FIG. 21A.

【0103】上述した一実施形態では、すべての制御を
1台のコンピュータを用いて行うようになされている。
この発明の他の実施形態は、図19に示すように、サー
バ用コンピュータ、クライアント用コンピュータ間で役
割を分担して、ネットワーク回線のように通信容量に制
限のある形態でもパンチルタカメラを制御するようにし
たものである。モニタ2およびマウス8が接続されてい
るコンピュータ1は、伝送路およびサーバ9を介して遠
隔地に設置されたパンチルタカメラ3の駆動を制御す
る。すなわち、コンピュータ1によって、撮像装置コン
トローラが構成される。伝送路としては、通信回線(無
線、有線)、ネットワークなどの既存の種々のものが使
用可能である。サーバ9に対してコンピュータ1は、ク
ライアントの関係にあり、サーバ9に対して複数のコン
ピュータ1の接続が可能である。
In the above-described embodiment, all the controls are performed using one computer.
In another embodiment of the present invention, as shown in FIG. 19, roles are divided between a server computer and a client computer, and a pan tilter camera is controlled even in a form having a limited communication capacity such as a network line. It is like that. The computer 1 to which the monitor 2 and the mouse 8 are connected controls the driving of the pan tilter camera 3 installed at a remote place via the transmission line and the server 9. That is, the computer 1 forms an imaging device controller. Various existing transmission lines such as a communication line (wireless or wired) and a network can be used as the transmission line. The computer 1 has a client relationship with the server 9, and a plurality of computers 1 can be connected to the server 9.

【0104】パンチルタカメラ3およびサーバ9は、4
に示すような環境にある実際の景色に設置される。この
環境の実際の景色4に設置されたパンチルタカメラ3に
よって撮影された画面(以下、撮影画面と称する)を5
に示す。この撮影画面5は、実際に撮影している画面で
あって、ズームレンズを望遠側に操作すると画角が小さ
くなり、ワイド側に操作すると画角が大きくなる。
The pan tilter camera 3 and the server 9
It is installed in the actual scene in the environment as shown in. A screen shot by the pan tilter camera 3 installed in the actual scenery 4 of this environment (hereinafter referred to as a shooting screen) is denoted by 5.
Shown in The photographing screen 5 is a screen for actually photographing. When the zoom lens is operated on the telephoto side, the angle of view is reduced, and when the zoom lens is operated on the wide side, the angle of view is increased.

【0105】パンチルタカメラ3によって取り込まれる
撮影画面5の映像は、サーバ9を経由することによって
映像データに変換される。この映像データが伝送路を介
してコンピュータ1に供給される。コンピュータ1に供
給された映像データがモニタ2に表示される。モニタ2
では、供給された撮影画面5がモニタ2の画面上の操作
領域6Aに表示される。
The video of the photographing screen 5 captured by the pan tilter camera 3 is converted into video data via the server 9. This video data is supplied to the computer 1 via the transmission path. The video data supplied to the computer 1 is displayed on the monitor 2. Monitor 2
Then, the supplied shooting screen 5 is displayed in the operation area 6A on the screen of the monitor 2.

【0106】また、モニタ2では、パノラマ操作領域6
Bおよびパノラマ生成ボタン6Eを有している。パノラ
マ生成ボタン6Eによりパノラマ画像の作成指示がサー
バ9に発信され、サーバ9では、パンチルタ、ズームを
所定の位置に駆動し、各々の場所で画像を取得するとと
もに、取得した複数枚の画像を、パンチルタの可動軸を
原点とした仮想球面に対して画像を連結し、仮想球面の
緯度、経度方向に対して正規化を行った平面画像を作成
する。作成されたパノラマ画像がサーバ9から伝送路を
介してコンピュータ1によりモニタ2のパノラマ操作領
域6Bに表示される。
On the monitor 2, the panorama operation area 6
B and a panorama generation button 6E. A panorama image creation instruction is transmitted to the server 9 by the panorama generation button 6E, and the server 9 drives the pan tilter and the zoom to a predetermined position, acquires images at each location, and displays a plurality of acquired images, Images are connected to a virtual spherical surface whose origin is the movable axis of the pan tilter, and a plane image is created by normalizing the latitude and longitude directions of the virtual spherical surface. The created panoramic image is displayed on the panoramic operation area 6B of the monitor 2 by the computer 1 from the server 9 via the transmission path.

【0107】また、上述した一実施形態と同様に、パノ
ラマ操作領域6Bに、マウス8の位置に矢印形のカーソ
ル7が描画される。映像またはパノラマ画像中の任意の
一点または領域6Cをマウス8により指示することによ
って、パンチルタカメラ3が操作される。さらに、パノ
ラマ操作領域6Bには、点線で示すように、パンチルタ
リミッタ表示6Dが表示される。パンチルタリッタ表示
6Dは、パンチルタカメラ3の可動範囲の限界を示す。
As in the case of the above-described embodiment, an arrow-shaped cursor 7 is drawn at the position of the mouse 8 in the panorama operation area 6B. The pan tilter camera 3 is operated by pointing an arbitrary point or area 6C in the video or the panoramic image with the mouse 8. Further, a pan / tilt limiter display 6D is displayed in the panorama operation area 6B as indicated by a dotted line. The pan / tilt display 6D indicates the limit of the movable range of the pan / tilt camera 3.

【0108】そして、マウス8を操作することによっ
て、カーソルは移動し、パノラマ操作領域6Bの任意の
一点または、任意の領域6Cから生成される任意の一点
を指示することができる。指示された任意の一点が操作
領域6Aの中央になるように、サーバ9および伝送路を
介してパンチルタを駆動させ、撮像画面5が移動する。
すなわち、選択された被写体がサーバ9および伝送路を
介して、パノラマ操作領域6Bの中央になるように表示
される。
By operating the mouse 8, the cursor moves, and can point to an arbitrary point in the panoramic operation area 6B or an arbitrary point generated from the arbitrary area 6C. The pan tilter is driven via the server 9 and the transmission path so that the designated one point is located at the center of the operation area 6A, and the imaging screen 5 moves.
That is, the selected subject is displayed via the server 9 and the transmission path so as to be at the center of the panorama operation area 6B.

【0109】図20は、この発明の実施の他の実施形態
の全システムのブロック図である。但し、カメラ部11
およびパンチルタ部12の構成、機能は、上述した一実
施形態(図3)と同様であるので、図20では、その詳
細な構成が省略されている。サーバ9は、制御部13
1、ビデオキャプチャーボードからなるビデオキャプチ
ャー部129、記憶部30から構成される。コンピュー
タ1は、伝送路132とネットワークで接続されてお
り、図3に示す一実施形態と同様に制御部31等から構
成される。なお、各コンピュータ内の詳細なアルゴリズ
ムについても、前記一実施形態と内容が重複するため、
その説明を省略する。
FIG. 20 is a block diagram of the entire system according to another embodiment of the present invention. However, the camera unit 11
Since the configuration and function of the pan tilter unit 12 are the same as those of the above-described embodiment (FIG. 3), the detailed configuration thereof is omitted in FIG. The server 9 includes a control unit 13
1. A video capture unit 129 comprising a video capture board and a storage unit 30. The computer 1 is connected to the transmission line 132 via a network, and includes the control unit 31 and the like as in the embodiment shown in FIG. In addition, also about the detailed algorithm in each computer, since the content overlaps with the one embodiment,
The description is omitted.

【0110】被写体から到達する撮像光は、一実施形態
と同様、カメラ部11で信号処理され、輝度(Y)、色
(C)、ビデオ信号といった各信号に変換され、映像信
号としてTVモニタ13およびサーバ9のビデオキャプ
チャー部129へ供給される。また、一実施形態のとお
り、パンチルタカメラは、モードコントローラ23、カ
メラコントローラ24、パンチルタコントローラ25を
有し、カメラ部11、パンチルタ部28を制御してい
る。モードコントローラ23は、カメラ部11、パンチ
ルタ部12の内部状態、および、外部からの命令に従
い、システム全体を一実施形態と同様に制御する。
As in the case of the first embodiment, the image pickup light arriving from the subject is signal-processed by the camera section 11 and converted into signals such as luminance (Y), color (C), and video signals. And a video capture unit 129 of the server 9. As in the embodiment, the pan / tilt camera includes a mode controller 23, a camera controller 24, and a pan / tilt controller 25, and controls the camera unit 11 and the pan / tilt unit 28. The mode controller 23 controls the entire system in the same manner as in the embodiment according to the internal states of the camera unit 11 and the pan / tilt unit 12 and external commands.

【0111】モードコントローラ23は、通信路(具体
的には、RS232Cを用いている)によりサーバ9と
接続され、サーバ9から直接送られてくる命令、また
は、コンピュータ1から、サーバ9経由で送られてくる
命令に対し、パンチルタ28、レンズブロック部15の
ズームレンズ16を駆動するように、パンチルタコント
ローラ25、カメラコントローラ24に、受け取った命
令を振り分ける。また、モードコントローラ23は、パ
ンチルタカメラの内部状態をサーバ9を経由して外部に
送出するため、パンチルタコントローラ25、カメラコ
ントローラ24から情報を常に取得している。
The mode controller 23 is connected to the server 9 via a communication path (specifically, using RS232C), and sends a command sent directly from the server 9 or a command sent from the computer 1 via the server 9. In response to the received command, the received command is distributed to the pan tilter controller 25 and the camera controller 24 so as to drive the pan tilter 28 and the zoom lens 16 of the lens block unit 15. Further, the mode controller 23 always obtains information from the pan / tilt controller 25 and the camera controller 24 in order to send the internal state of the pan / tilt camera to the outside via the server 9.

【0112】サーバ9は、パンチルタ部12のモードコ
ントローラ23より、パンチルタカメラの内部状態(た
とえば、パンチルタ、ズームレンズの現在の位置情報
等)を周期的に取得するようになっている。また、カメ
ラ部11の映像を伝送路132に送出するために、ビデ
オキャプチャー部129を使用しており、カメラ部11
より入力されてくる映像情報を任意の品質で、伝送路1
32に送出しやすいデジタル画像データ(具体的には、
JPEG形式の静止画またはビットマップ形式の静止
画)に変換している。また、同形式のデジタル画像を、
記憶部130(例えば、ハードディスク)上にストレー
ジすることができる。
The server 9 periodically acquires the internal state of the pan / tilt camera (for example, current position information of the pan / tilt, zoom lens, etc.) from the mode controller 23 of the pan / tilt unit 12. In addition, a video capture unit 129 is used to transmit the video of the camera unit 11 to the transmission path 132.
The video information input from the transmission path 1 with an arbitrary quality
Digital image data that can be easily sent to
JPEG format still image or bitmap format still image). In addition, digital images of the same format
It can be stored on the storage unit 130 (for example, a hard disk).

【0113】サーバ9に対し、コンピュータ1より接続
要求がなされると、サーバ9は、コンピュータ1に接続
されているモニタ2に表示するための、GUI(グラフ
ィカルインターフェース)パネル情報を送出する。パネ
ル情報としては、パネルの配置、パネル上でマウス操作
されたときの、コンピュータ1での動作プログラム等が
あり、具体的には、HTML、JAVAのプログラムを
使用している。また、周期的にパンチルタカメラが撮像
した画像データ、パンチルタカメラの状態などを伝送路
132を介してコンピュータ1に送出する。
When a connection request is made from the computer 1 to the server 9, the server 9 sends out GUI (graphical interface) panel information to be displayed on the monitor 2 connected to the computer 1. The panel information includes an arrangement of the panel, an operation program in the computer 1 when a mouse operation is performed on the panel, and the like, and specifically, an HTML or JAVA program is used. In addition, image data captured by the pan / tilt camera, the state of the pan / tilt camera, and the like are periodically transmitted to the computer 1 via the transmission line 132.

【0114】他の実施形態では、伝送路132にインタ
ーネットを使用し、伝送路132上を、HTTPプロト
ルコを用いてやり取りがなされている。また、コンピュ
ータ1では、インターネット用のフラウザを用いて、サ
ーバ9より送られてくるGUIパネル情報、画像情報、
パンチルタカメラ状態などを、モニタ2に表示する。モ
ニタ2の画面上に表示されるGUIパネルには、操作領
域6Aおよびパノラマ操作領域6B、ズームの操作ボタ
ン、ポインティングデバイス14(マウス8)のカーソ
ル等が表示される。そして、操作領域6Aには、サーバ
より送られてくる画像データがデコード表示され、画像
データの更新と共に映像が書き換えられる。また、サー
バ9より送られてくるパノラマ画像データがデコードさ
れ、パノラマ操作領域6Bに、パノラマ画像が表示さ
れ、さらに、パンチルタカメラの動作範囲及び、現在の
パンチルタの位置、ズームの画角などが一実施形態と同
様な手法で表示される。そして、コンピュータ1は、サ
ーバ9より送られてきた、GUIパネルが操作されたと
きの動作プログラムが実行される。
In another embodiment, the Internet is used for the transmission path 132, and exchanges are performed on the transmission path 132 using the HTTP protocol. In the computer 1, the GUI panel information, image information,
The state of the pan-tilt camera is displayed on the monitor 2. On the GUI panel displayed on the screen of the monitor 2, an operation area 6A and a panorama operation area 6B, zoom operation buttons, a cursor of the pointing device 14 (mouse 8), and the like are displayed. Then, in the operation area 6A, the image data sent from the server is decoded and displayed, and the video is rewritten together with the update of the image data. Further, the panorama image data sent from the server 9 is decoded, the panorama image is displayed in the panorama operation area 6B, and the operation range of the pan / tilt camera, the current position of the pan / tilt, the angle of view of the zoom, etc. It is displayed in the same manner as in the embodiment. Then, the computer 1 executes the operation program sent from the server 9 when the GUI panel is operated.

【0115】他の実施形態の上記動作プログラムは、パ
ンチルタカメラへの駆動命令及び、サーバ上での動作命
令を、マウスのクリック動作によって発生させる。操作
領域6A上で、マウスがクリックされた場合、一実施形
態と同様、画角情報、現在のパンチルタ位置情報、クリ
ックされたときのマウスの位置情報を元に、操作領域6
Aに表示される映像上でマウスクリックされた位置が、
操作領域6A(映像表示)の中心に来るようにパンチル
タが駆動されるように、命令(絶対位置駆動命令又は相
対位置駆動命令)をサーバ9に発信する。
The operation program of another embodiment generates a drive command to the pan / tilt camera and an operation command on the server by clicking the mouse. When the mouse is clicked on the operation area 6A, the operation area 6A is determined based on the view angle information, the current pan tilter position information, and the mouse position information when the mouse is clicked, as in the embodiment.
The position where the mouse is clicked on the image displayed on A is
A command (an absolute position driving command or a relative position driving command) is transmitted to the server 9 so that the pan tilter is driven to be at the center of the operation area 6A (video display).

【0116】サーバ9がこの命令を取得すると、命令を
中継して、パンチルタカメラに発信し、パンチルタが所
望の位置に駆動される。このように、映像上でパンチル
タの駆動目標を設定するため、ネットワークでの駆動命
令、映像のディレー等を意識せずにパンチルタを容易に
操作することが可能になる。
When the server 9 acquires the command, the command is relayed and transmitted to the pan tilter camera, and the pan tilter is driven to a desired position. As described above, since the driving target of the pan tilter is set on the video, it is possible to easily operate the pan tilter without being conscious of the driving command on the network, the delay of the video, and the like.

【0117】コンピュータ1では、送られてきたパノラ
マ画像が、モニタ2のパノラマ操作領域6Bに重ね合わ
すように表示され、現在パンチルタカメラが設定されて
いる環境を一目で表示することが可能になる。また、先
の説明でも述べたように、パノラマ操作領域6Bには、
パンチルタの位置情報、ズームレンズ画角、パンチルタ
の駆動範囲が表示されてるため、パノラマ画像上で、現
在のパンチルタの状態を容易に確認することが可能にな
る。つまり、コンピュータ1または、サーバ9がパンチ
ルタやズームを駆動する命令を発生すれば、それに応じ
たパンチルタカメラの状況が、パノラマ画像上で確認で
きることになる。
In the computer 1, the transmitted panoramic image is displayed so as to be superimposed on the panoramic operation area 6B of the monitor 2, and the environment in which the pan tilter camera is currently set can be displayed at a glance. . Also, as described above, the panorama operation area 6B includes:
Since the position information of the pan tilter, the angle of view of the zoom lens, and the driving range of the pan tilter are displayed, it is possible to easily confirm the current state of the pan tilter on the panoramic image. That is, if the computer 1 or the server 9 issues a command to drive the pan tilter or the zoom, the situation of the pan tilter camera corresponding to the command can be confirmed on the panoramic image.

【0118】また、パノラマ操作領域6B上で、マウス
がクリックされた場合、一実施形態と同様、クリックさ
れたときのマウスの位置情報を元に、パノラマ画像上の
マウスクリックされた位置が、操作領域6A(映像)の
中心に来るように駆動されるように、命令(絶対位置駆
動命令)をサーバ9に発信する。サーバ9がこの命令を
取得すると、命令を中継して、パンチルタカメラに発信
し、パンチルタが所望の位置に駆動される。このよう
に、パノラマ画像上でパンチルタの駆動目標を設定する
ため、ネットワークでの駆動命令、映像のディレー等を
意識せずにパンチルタを容易に操作することが可能にな
る。
When the mouse is clicked on the panorama operation area 6B, the position of the mouse click on the panorama image is changed based on the position information of the mouse at the time of the click, as in the embodiment. A command (absolute position driving command) is transmitted to the server 9 so as to be driven to be at the center of the area 6A (image). When the server 9 acquires the command, the command is relayed and transmitted to the pan tilter camera, and the pan tilter is driven to a desired position. As described above, since the drive target of the pan tilter is set on the panoramic image, it is possible to easily operate the pan tilter without being conscious of the drive command on the network, the delay of the video, and the like.

【0119】この発明の実施形態では、パノラマ画像
は、パンチルタカメラ3からコンピュータ1へ画像が供
給される度にコンピュータ1内で連結し、連結されるた
びに画像をパノラマ操作領域6Bに表示しているが、全
ての画像が連結された後にパノラマ操作領域6Bに表示
するようにしても良い。
In the embodiment of the present invention, the panoramic images are connected in the computer 1 each time an image is supplied from the pan / tilt camera 3 to the computer 1, and the images are displayed in the panoramic operation area 6B each time they are connected. However, the image may be displayed in the panoramic operation area 6B after all the images are connected.

【0120】この発明の実施形態では、コンピュータ1
に接続されているモニタ2の画面上に操作領域6Aおよ
びパノラマ操作領域6Bを表示しているが、モニタ2と
は異なる別のディスプレイに操作領域6Aおよび/また
はパノラマ操作領域6Bを表示しても良い。
In the embodiment of the present invention, the computer 1
Although the operation area 6A and the panorama operation area 6B are displayed on the screen of the monitor 2 connected to the monitor 2, the operation area 6A and / or the panorama operation area 6B may be displayed on another display different from the monitor 2. good.

【0121】この発明の実施形態では、パンチルタカメ
ラ3によって撮影可能な範囲をパンチルタカメラ3の可
動できる最大範囲としても良いし、リミッタによって撮
影可能な範囲を制限しても良い。また、そのリミッタに
より撮影範囲を制限する機能は、パンチルタカメラ3に
持っても良いし、コンピュータ1に持っても良い。
In the embodiment of the present invention, the range that can be photographed by the pan tilter camera 3 may be the maximum range in which the pan tilter camera 3 can move, or the range that can be photographed by the limiter may be limited. Further, the function of limiting the photographing range by the limiter may be provided in the pan tilter camera 3 or the computer 1.

【0122】この発明の実施形態では、任意の領域から
生成される任意の一点をその領域の中心としたが、それ
に限らず任意の領域の外心、内心、重心または垂心を任
意の一点としても良い。
In the embodiment of the present invention, an arbitrary point generated from an arbitrary area is set as the center of the area. However, the present invention is not limited to this, and the outer center, inner center, center of gravity, or vertical center of an arbitrary area may be set as an arbitrary point. good.

【0123】この発明の他の実施形態では、パノラマ画
像の作成をコンピュータ1で行うようになされている
が、サーバ9でパノラマ画像を作成し、回線容量の少な
いネットワーク回線にそのパノラマ画像のデータをコン
ピュータ1に転送し、モニタ2のパノラマ操作領域6B
に表示するようにしても良い。
In another embodiment of the present invention, the computer 1 creates the panoramic image. However, the server 9 creates the panoramic image and transfers the data of the panoramic image to a network line having a small line capacity. Transfer to the computer 1 and the panorama operation area 6B of the monitor 2
May be displayed.

【0124】この発明の他の実施形態では、説明を容易
とするために、遠隔地に設置されたサーバ9とパンチル
タカメラ3に対して1つのコンピュータ1としたが、サ
ーバ9とパンチルタカメラ3は、世界中に配置され、例
えばインターネットを介して複数のコンピュータから1
つのパンチルタカメラ3を制御するようにしても良い。
In another embodiment of the present invention, for ease of explanation, one computer 1 is used for the server 9 and the pan tilter camera 3 installed in a remote place. However, the server 9 and the pan tilter camera are used. 3 are located around the world, for example, from a plurality of computers via the Internet.
One pan tilter camera 3 may be controlled.

【0125】[0125]

【発明の効果】この発明に依れば、撮像した映像を仮想
球面上に写像し、連結する手法をとっているため、連結
部に歪みのない画像を提供することが可能になる。これ
によって、低コストのデバイス、画像フォーマットを用
いた機器の画像を連結しても、高解像度のデバイス、画
像フォーマットを用いてしか得られないようなハイクオ
リティー(高画質、高品質)な画像を得ることができ
る。また、一般に高価である超広角系のレンズまたは魚
眼レンズを用いて可能になるパノラマ画像を、安易に作
成できるため、撮像装置の撮像方向が変更可能な装置
(例えば、パンチルタ内蔵カメラ)に用いたアプリケー
ションなどで効果が期待できる。
According to the present invention, since a method of mapping a captured image on a virtual spherical surface and connecting the images is employed, it is possible to provide an image having no distortion at the connecting portion. This makes it possible to combine high-resolution (high-quality, high-quality) images that can only be obtained using high-resolution devices and image formats, even if images from devices using low-cost devices and image formats are connected. Obtainable. In addition, since a panoramic image that can be created using an ultra-wide-angle lens or a fisheye lens, which is generally expensive, can be easily created, an application used in a device that can change the imaging direction of an imaging device (for example, a camera with a built-in pan tilter) The effect can be expected.

【0126】また、この発明に依れば、例えば、パノラ
マ画像上に、ズーム画角、パンチルタ位置などを表示す
ることで、撮像装置の状況を容易に把握することが可能
になると共に、パノラマ画像上で、駆動したい場所、映
したい被写体を指定することができるので、容易に目的
の映像を得るが可能となる。特に、こういったアプリケ
ーションにパノラマ画像を用いることで、回線を利用し
た遠隔地にあるビデオカメラでの監視、観察、案内、紹
介などの制御用途で、より良い操作性と、視認性を実現
することができる。
Further, according to the present invention, for example, by displaying a zoom angle of view, a pan tilter position, and the like on a panoramic image, it is possible to easily grasp the state of the imaging apparatus and to obtain a panoramic image. In the above, a place to be driven and a subject to be projected can be designated, so that a desired image can be easily obtained. In particular, by using panoramic images for such applications, better operability and visibility can be realized for control applications such as monitoring, observation, guidance, and introduction with a remote video camera using a line. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態のシステムの概略的構成
を示す略線図である。
FIG. 1 is a schematic diagram illustrating a schematic configuration of a system according to an embodiment of the present invention.

【図2】この発明の一実施形態における画面を説明する
ための略線図である。
FIG. 2 is a schematic diagram illustrating a screen according to an embodiment of the present invention.

【図3】この発明の一実施形態のシステム構成を示すブ
ロック図である。
FIG. 3 is a block diagram illustrating a system configuration according to an embodiment of the present invention.

【図4】この発明の一実施形態におけるパノラマ画像の
生成を説明するための略線図である。
FIG. 4 is a schematic diagram illustrating generation of a panoramic image according to an embodiment of the present invention.

【図5】この発明の一実施形態におけるパノラマ画像の
生成を説明するための概略図である。
FIG. 5 is a schematic diagram for explaining generation of a panoramic image according to an embodiment of the present invention.

【図6】この発明の一実施形態におけるパノラマ画像の
生成を説明するための概略図である。
FIG. 6 is a schematic diagram for explaining generation of a panoramic image according to an embodiment of the present invention.

【図7】この発明の一実施形態におけるパノラマ操作領
域上の位置座標からパンチルタカメラの角度情報を生成
する説明にもちいた略線図である。
FIG. 7 is a schematic diagram used for explaining generation of angle information of a pan tilter camera from position coordinates on a panorama operation area according to an embodiment of the present invention.

【図8】この発明の一実施形態における平面球面変換を
説明するための略線図である。
FIG. 8 is a schematic diagram for explaining plane spherical conversion in one embodiment of the present invention.

【図9】この発明の一実施形態における操作領域での座
標変換を説明するための略線図である。
FIG. 9 is a schematic diagram illustrating coordinate conversion in an operation area according to an embodiment of the present invention.

【図10】この発明の一実施形態におけるパノラマ操作
領域での座標変換を説明するための略線図である。
FIG. 10 is a schematic diagram for explaining coordinate conversion in a panorama operation area according to an embodiment of the present invention.

【図11】この発明の一実施形態におけるパンチルタカ
メラの内部の位置情報と角度情報とを説明するための略
線図である。
FIG. 11 is a schematic diagram for explaining position information and angle information inside the pan tilter camera in one embodiment of the present invention.

【図12】この発明の一実施形態におけるパンチルタカ
メラの角度座標とパノラマ操作領域の位置座標とを説明
するための略線図である。
FIG. 12 is a schematic diagram illustrating angle coordinates of a pan tilter camera and position coordinates of a panorama operation area according to an embodiment of the present invention.

【図13】この発明の一実施形態におけるパンチルタカ
メラの画角とパノラマ操作領域内の枠とを説明するため
の略線図である。
FIG. 13 is a schematic diagram illustrating an angle of view of a pan tilter camera and a frame in a panorama operation area according to an embodiment of the present invention.

【図14】この発明の一実施形態におけるズームデータ
と倍率データの変換を説明するための略線図である。
FIG. 14 is a schematic diagram illustrating conversion of zoom data and magnification data according to an embodiment of the present invention.

【図15】この発明の一実施形態の全体の処理の一例を
示すフローチャートである。
FIG. 15 is a flowchart illustrating an example of overall processing according to an embodiment of the present invention.

【図16】この発明の一実施形態におけるパノラマ作成
要求イベントの処理の一例を示すフローチャートであ
る。
FIG. 16 is a flowchart illustrating an example of processing of a panorama creation request event according to an embodiment of the present invention.

【図17】この発明の一実施形態におけるタイマイベン
トの処理の一例を示すフローチャートである。
FIG. 17 is a flowchart illustrating an example of processing of a timer event according to an embodiment of the present invention.

【図18】この発明の一実施形態におけるパノラマ作成
処理の一例を示すフローチャートである。
FIG. 18 is a flowchart illustrating an example of a panorama creation process according to an embodiment of the present invention.

【図19】この発明の他の実施形態のシステムの概略的
構成を示す略線図である。
FIG. 19 is a schematic diagram illustrating a schematic configuration of a system according to another embodiment of the present invention.

【図20】この発明の他の実施形態のシステム構成を示
すブロック図である。
FIG. 20 is a block diagram showing a system configuration according to another embodiment of the present invention.

【図21】パノラマ画像の作成を説明するための略線図
である。
FIG. 21 is a schematic diagram for explaining creation of a panoramic image.

【符号の説明】[Explanation of symbols]

1・・・コンピュータ、2・・・モニタ、6A・・・操
作領域、6B・・・パノラマ操作領域、7・・・カーソ
ル、9・・・サーバ、11・・・カメラ部、12・・・
パンチルタ部、13・・・TVモニタ、14・・・ポイ
ンティングデバイス、15・・・レンズブロック部、1
6・・・ズームレンズ、17・・・ズーム部、18、2
6、27・・・モータ、19・・・固体撮像素子、20
・・・信号分離/自動利得調整回路、21・・・A/D
変換器、22・・・信号処理回路、23・・・モードコ
ントローラ、24・・・カメラコントローラ、25・・
・パンチルタコントローラ、28・・・パンチルタ、2
9・・・ビデオキャプチャー、30・・・記憶部、31
・・・制御部
DESCRIPTION OF SYMBOLS 1 ... Computer, 2 ... Monitor, 6A ... Operation area, 6B ... Panorama operation area, 7 ... Cursor, 9 ... Server, 11 ... Camera part, 12 ...
Pan tilter unit, 13 TV monitor, 14 pointing device, 15 lens block unit, 1
6 zoom lens, 17 zoom unit, 18, 2
6, 27 ... motor, 19 ... solid-state image sensor, 20
... Signal separation / automatic gain adjustment circuit, 21 ... A / D
Converter, 22 ... Signal processing circuit, 23 ... Mode controller, 24 ... Camera controller, 25 ...
・ Pan tilter controller, 28 ・ ・ ・ Pan tilter, 2
9: video capture, 30: storage unit, 31
... Control unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 細沼 直泰 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 玉山 研 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Naoyasu Hosunuma 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Ken Tamayama 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 映像を撮影する撮像手段と、 上記撮像手段の撮像する方角を制御する駆動手段と、 上記撮像手段によって得られた複数の画像を、上記駆動
手段の回転中心から見た仮想球面に対し写像することに
よって歪みなく連結する画像連結手段とからなることを
特徴とするパノラマ画像生成装置。
An imaging unit that captures an image; a driving unit that controls a direction in which the imaging unit captures an image; and a plurality of images obtained by the imaging unit, a virtual spherical surface viewed from a rotation center of the driving unit. A panoramic image generating apparatus, comprising: image linking means for linking without distortion by mapping to the image.
【請求項2】 請求項1において、 さらに、上記画像連結手段では、上記仮想球面に対して
写像された上記画像を、上記仮想球面の緯度、経度で正
規化することによって平面に写像するようにしたことを
特徴とするパノラマ画像生成装置。
2. The method according to claim 1, wherein the image linking means maps the image mapped to the virtual sphere to a plane by normalizing the image with the latitude and longitude of the virtual sphere. A panoramic image generation device characterized by doing the following.
【請求項3】 請求項1において、 上記駆動手段は、駆動系に遊びがある機構を有するもの
であって、上記撮像手段より得られた画像を連結する際
に、上記駆動手段を同一方向に駆動することによって取
得した画像を用いてバックラッシュの影響を補正するよ
うにしたことを特徴とするパノラマ画像生成装置。
3. The driving device according to claim 1, wherein the driving unit has a mechanism with play in a driving system, and when connecting the images obtained by the imaging unit, the driving unit is moved in the same direction. A panoramic image generation device, wherein the effect of backlash is corrected using an image acquired by driving.
【請求項4】 請求項1において、 上記画像連結手段によって複数枚の画像を連結する場
合、1枚の画像を取得するたびに画像の連結を行い、そ
の結果を表示手段に表示し、画像連結の進行状況を表示
するようにしたことを特徴とするパノラマ画像生成装
置。
4. The method according to claim 1, wherein, when a plurality of images are linked by the image linking means, the images are linked each time one image is acquired, and the result is displayed on a display means. A panoramic image generating apparatus, wherein the panoramic image generating apparatus displays the progress of the panoramic image.
【請求項5】 請求項1において、 上記画像連結手段によって複数枚の画像を連結する場
合、1枚の画像を取得するたびに、その連結結果を表示
手段に表示せず、全画像を取得した後に、上記表示手段
に表示するようにしたことを特徴とするパノラマ画像生
成装置。
5. The method according to claim 1, wherein when connecting a plurality of images by the image connecting means, every time one image is obtained, the result of the connection is not displayed on the display means, but all images are obtained. A panoramic image generating device, wherein the panoramic image generating device is displayed on the display unit later.
【請求項6】 請求項1において、 上記画像連結手段によって複数枚の画像を連結する場
合、1枚の画像を取得するたびに逐次画像の連結を行う
が、その結果を表示手段に表示せず、全画像が取り込ま
れ、連結が終了した時に、その結果を表示手段に表示す
るようにしたことを特徴とするパノラマ画像生成装置。
6. The method according to claim 1, wherein, when a plurality of images are connected by the image connecting means, the images are sequentially connected each time one image is obtained, but the result is not displayed on the display means. A panoramic image generating apparatus, wherein when all images are captured and the connection is completed, the result is displayed on a display means.
【請求項7】 請求項1において、 上記駆動手段の可動範囲の画像を上記撮像手段によって
撮像し、パノラマ画像を自動的に生成するようにしたこ
とを特徴とするパノラマ画像生成装置。
7. The panoramic image generating apparatus according to claim 1, wherein an image of a movable range of the driving unit is captured by the imaging unit, and a panoramic image is automatically generated.
【請求項8】 請求項7において、 さらに、上記駆動手段の駆動方向の指示を行うための操
作領域に、上記パノラマ画像を表示するようにしたこと
を特徴とするパノラマ画像生成装置。
8. The panoramic image generating apparatus according to claim 7, wherein the panoramic image is displayed in an operation area for instructing a driving direction of the driving unit.
【請求項9】 請求項8において、 上記操作領域の任意の一点を指定することで、指定され
た任意の一点に対応する位置の被写体を、上記駆動手段
の任意の位置座標に移動するようにしたことを特徴とす
るパノラマ画像生成装置。
9. The method according to claim 8, wherein by designating an arbitrary point in the operation area, a subject at a position corresponding to the designated arbitrary point is moved to arbitrary position coordinates of the driving unit. A panoramic image generation device characterized by doing the following.
【請求項10】 請求項8において、 上記操作領域の任意の領域を指定することで、上記任意
の領域より生成される任意の一点に対応する位置の被写
体を、上記駆動手段の任意の位置座標に移動するように
したことを特徴とするパノラマ画像生成装置。
10. The object according to claim 8, wherein by specifying an arbitrary area of the operation area, an object at a position corresponding to an arbitrary point generated from the arbitrary area is set to an arbitrary position coordinate of the driving means. A panoramic image generation device, wherein
【請求項11】 映像を撮影するステップと、 上記映像を撮像する方角を制御するステップと、 撮影することによって得られた複数の画像を、上記撮影
する位置の回転中心から見た仮想球面に対し写像するこ
とによって歪みなく連結するステップとからなることを
特徴とするパノラマ画像生成方法。
11. A step of photographing an image, a step of controlling a direction in which the image is photographed, and a step of dividing a plurality of images obtained by photographing with respect to a virtual spherical surface viewed from a rotation center of the photographing position. A step of connecting without distortion by mapping.
JP26182997A 1997-04-21 1997-09-26 Panorama image generating apparatus and method Expired - Fee Related JP3744147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26182997A JP3744147B2 (en) 1997-04-21 1997-09-26 Panorama image generating apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-103456 1997-04-21
JP10345697 1997-04-21
JP26182997A JP3744147B2 (en) 1997-04-21 1997-09-26 Panorama image generating apparatus and method

Publications (2)

Publication Number Publication Date
JPH118845A true JPH118845A (en) 1999-01-12
JP3744147B2 JP3744147B2 (en) 2006-02-08

Family

ID=26444097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26182997A Expired - Fee Related JP3744147B2 (en) 1997-04-21 1997-09-26 Panorama image generating apparatus and method

Country Status (1)

Country Link
JP (1) JP3744147B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2002016909A (en) * 2000-06-28 2002-01-18 Tokin Corp Method and system for remotely controlling camera for taking panoramic picture
JP2003009136A (en) * 2001-06-21 2003-01-10 Toshiba Corp Camera supervising system and video delivering server
JP2006310975A (en) * 2005-04-26 2006-11-09 Mitsubishi Electric Corp Video mosaicking apparatus, panorama video transmission/reception system, panorama video generation/transmission apparatus, panorama video receiver, strip generation/transmission apparatus for panorama video, and strip receiver for panorama video
JP2007043225A (en) * 2005-07-29 2007-02-15 Univ Of Electro-Communications Picked-up processing apparatus and picked-up processing method
US7224374B2 (en) 2002-05-02 2007-05-29 Sony Corporation Monitoring system and method, and program and recording medium used therewith
JP2007235696A (en) * 2006-03-02 2007-09-13 Toa Corp Camera control apparatus and camera control method
US8274548B2 (en) 2006-10-16 2012-09-25 Canon Kabushiki Kaisha Network camera system
US8462253B2 (en) 2002-05-02 2013-06-11 Sony Corporation Monitoring system for a photography unit, monitoring method, computer program, and storage medium
CN104284155A (en) * 2014-10-16 2015-01-14 浙江宇视科技有限公司 Video image information labeling method and device
JP2016178534A (en) * 2015-03-20 2016-10-06 キヤノン株式会社 Image processing device and method thereof, and image processing system
CN107924556A (en) * 2015-08-18 2018-04-17 索尼互动娱乐股份有限公司 Video generation device and image display control apparatus
CN108961371A (en) * 2017-05-19 2018-12-07 传线网络科技(上海)有限公司 Panorama starts page and APP display methods, processing unit and mobile terminal
US10350744B2 (en) 2009-02-24 2019-07-16 Black & Decker Inc. Ergonomic handle for power tool
JP2020022058A (en) * 2018-07-31 2020-02-06 横河電機株式会社 Monitor system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2002016909A (en) * 2000-06-28 2002-01-18 Tokin Corp Method and system for remotely controlling camera for taking panoramic picture
JP2003009136A (en) * 2001-06-21 2003-01-10 Toshiba Corp Camera supervising system and video delivering server
US9734680B2 (en) 2002-05-02 2017-08-15 Sony Corporation Monitoring system, monitoring method, computer program, and storage medium
US7224374B2 (en) 2002-05-02 2007-05-29 Sony Corporation Monitoring system and method, and program and recording medium used therewith
US8462253B2 (en) 2002-05-02 2013-06-11 Sony Corporation Monitoring system for a photography unit, monitoring method, computer program, and storage medium
JP2006310975A (en) * 2005-04-26 2006-11-09 Mitsubishi Electric Corp Video mosaicking apparatus, panorama video transmission/reception system, panorama video generation/transmission apparatus, panorama video receiver, strip generation/transmission apparatus for panorama video, and strip receiver for panorama video
JP2007043225A (en) * 2005-07-29 2007-02-15 Univ Of Electro-Communications Picked-up processing apparatus and picked-up processing method
JP2007235696A (en) * 2006-03-02 2007-09-13 Toa Corp Camera control apparatus and camera control method
US8274548B2 (en) 2006-10-16 2012-09-25 Canon Kabushiki Kaisha Network camera system
US10350744B2 (en) 2009-02-24 2019-07-16 Black & Decker Inc. Ergonomic handle for power tool
CN104284155A (en) * 2014-10-16 2015-01-14 浙江宇视科技有限公司 Video image information labeling method and device
CN104284155B (en) * 2014-10-16 2017-08-15 浙江宇视科技有限公司 Video image information mask method and device
JP2016178534A (en) * 2015-03-20 2016-10-06 キヤノン株式会社 Image processing device and method thereof, and image processing system
US10542210B2 (en) 2015-03-20 2020-01-21 Canon Kabushiki Kaisha Display control apparatus, image processing apparatus, display control method, and image processing method in which a panoramic image corresponds to a range indicated on a user interface
CN107924556A (en) * 2015-08-18 2018-04-17 索尼互动娱乐股份有限公司 Video generation device and image display control apparatus
CN108961371A (en) * 2017-05-19 2018-12-07 传线网络科技(上海)有限公司 Panorama starts page and APP display methods, processing unit and mobile terminal
CN108961371B (en) * 2017-05-19 2023-06-02 阿里巴巴(中国)有限公司 Panorama starting page, APP display method, processing device and mobile terminal
JP2020022058A (en) * 2018-07-31 2020-02-06 横河電機株式会社 Monitor system

Also Published As

Publication number Publication date
JP3744147B2 (en) 2006-02-08

Similar Documents

Publication Publication Date Title
JP4332231B2 (en) Imaging device controller and imaging system
US6977676B1 (en) Camera control system
JP4770493B2 (en) Remote indication system and remote indication method
JP4914171B2 (en) Imaging device control method and camera system
JP3744147B2 (en) Panorama image generating apparatus and method
US20120056977A1 (en) Method for generating panoramic image
US20060209186A1 (en) Field angle adjustment apparatus, camera system, and field angle adjustment method
KR20120012399A (en) Camera device, camera system, control device and program
JPH1118003A (en) Panorama image-pickup device
JP2001136514A (en) Camera control system, and control method and storage medium thereof
JP7150456B2 (en) IMAGING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD OF INFORMATION PROCESSING DEVICE, AND PROGRAM
JP2000341574A (en) Camera device and camera control system
JPH1188767A (en) Video processing system
JP4332580B2 (en) Control device, control method, and monitoring system
JP3994469B2 (en) Imaging device, display device, and recording device
JP2005354748A (en) Apparatus and method for controlling imaging means
JPH10322581A (en) Image pickup device controller and image pickup system
JP3812069B2 (en) Imaging device controller and imaging device
JP2006025340A (en) Wide angle imaging apparatus, imaging system, and control method thereof
JP2005348448A (en) Panorama imaging apparatus
JP2000358240A (en) Controller for monitor camera
JPH03217978A (en) Picture display device
JP6128966B2 (en) Image processing apparatus, image processing method, and program
JP2008236785A (en) Image providing device, image providing method, and image providing system
JP4293280B2 (en) Control device, control method and monitoring system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121202

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees