JP2001036898A - Camera system for generating panoramic video - Google Patents

Camera system for generating panoramic video

Info

Publication number
JP2001036898A
JP2001036898A JP11207237A JP20723799A JP2001036898A JP 2001036898 A JP2001036898 A JP 2001036898A JP 11207237 A JP11207237 A JP 11207237A JP 20723799 A JP20723799 A JP 20723799A JP 2001036898 A JP2001036898 A JP 2001036898A
Authority
JP
Japan
Prior art keywords
camera
unit
photographing
image
camera system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11207237A
Other languages
Japanese (ja)
Inventor
Yukihiro Kawamata
幸博 川股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP11207237A priority Critical patent/JP2001036898A/en
Publication of JP2001036898A publication Critical patent/JP2001036898A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To avoid generating of unnatural distortion due to the difference of photographing directions in a panoramic picture to be generated by providing a photographing camera and a photographing parameter calculating means for calculating the photographing parameter of a camera based on a photographing picture photographed by means of the photographing camera. SOLUTION: When the input part 163 of a panorama video display part 160 receives input from a user, an overlapping area detecting part 187 obtains an area where videos photographed by a first camera part 100 and a second camera part 130 are overlapped. At the time of dividing a featured block, namely video, within the frame of video 1 photographed by means of the first camera part 100 and the second camera part 130 into blocks consisting of 16 pictures ×16 pixels, a feature point extracting part 166 obtains a block maximizing its distributed value. Then, through the use of this feature point, a photographic parameter arithmetic part 169 compares the size and the perspective drawing of an object in video to calculate the photographic parameter of the part 130 from the comparing result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、パノラマ映像を生
成するためのカメラシステムおよびその利用方法に関す
る。
[0001] 1. Field of the Invention [0002] The present invention relates to a camera system for generating a panoramic image and a method of using the same.

【0002】[0002]

【従来の技術】従来のパノラマ画像生成システムでは、
カメラの撮影方向について全く考慮されておらず、カメ
ラで撮影した任意の撮影方向,ズーム率の画像を補正
し、パノラマ画像を生成していた。例えば、QuickTimeV
R などでは、撮影した画像と画像が切れ目なく繋がって
見えるように、カメラ画像を歪ませることで、パノラマ
画像を生成していた。
2. Description of the Related Art In a conventional panoramic image generation system,
The photographing direction of the camera is not considered at all, and an image of an arbitrary photographing direction and a zoom ratio photographed by the camera is corrected to generate a panoramic image. For example, QuickTimeV
In R, etc., a panoramic image was generated by distorting the camera image so that the captured image and the image seemed to be connected seamlessly.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
ような従来技術を用いてパノラマ画像を生成するとき (1)撮影した画像の撮影方向が大きく異なる場合、画
像と画像を切れ目なく繋がって見えるようにするため
に、画像を大きく歪ませる必要があり、不自然なパノラ
マ画像しか得られなかった。
However, when a panoramic image is generated using the above-described conventional technology, (1) if the photographing directions of the photographed images are largely different, the images seem to be connected seamlessly. Therefore, the image must be greatly distorted, and only an unnatural panoramic image can be obtained.

【0004】(2)撮影した画像のズームが異なってい
た場合、画像と画像の詳細度が大きくことなり、生成さ
れるパノラマ画像の品質が部分的に詳細であったり、粗
かったりするため、パノラマ画像が連続的に見えなかっ
た。
(2) If the zoom of the captured image is different, the degree of detail between the image and the image is large, and the quality of the generated panoramic image is partially detailed or coarse. Panoramic images could not be seen continuously.

【0005】(3)あるいは、撮影した画像の解像度が
異なる場合、画像と画像の詳細度を同じにするために、
一方の映像の詳細度を、もう一方の詳細度の劣る映像に
合わせる必要があり、生成されるパノラマ画像の品質が
劣化してしまっていた。
(3) Alternatively, when the resolution of the photographed image is different, in order to make the image and the image have the same level of detail,
It is necessary to match the level of detail of one of the videos with the video of a lower level of detail, and the quality of the generated panoramic image has deteriorated.

【0006】この発明は、以上のような問題点について
鑑みてなされたもので、それぞれのカメラ画像が同じ解
像度で撮影され、同じ撮影方向で撮影されるような画像
を得られるようにカメラパラメータを求めることを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and camera parameters are set such that respective camera images are photographed at the same resolution and images are photographed in the same photographing direction. The purpose is to seek.

【0007】[0007]

【課題を解決するための手段】上記目的は、カメラで撮
影された画像に基づき画像の歪み具合を検出し、その歪
み情報に基づきパノラマ画像に最適なカメラの撮影方向
やズーム率を計算する撮影パラメータ計算手段を具備す
ることによって達成される。
SUMMARY OF THE INVENTION An object of the present invention is to detect a degree of image distortion based on an image captured by a camera and calculate an optimal camera imaging direction and zoom ratio for a panoramic image based on the distortion information. This is achieved by providing parameter calculation means.

【0008】このような構成により、本発明では、生成
されるパノラマ画像に撮影方向の違いによる不自然な歪
みが起こらないようになる。
With such a configuration, according to the present invention, unnatural distortion due to a difference in photographing direction does not occur in the generated panoramic image.

【0009】[0009]

【発明の実施の形態】以下、本発明の第1の実施例から
第4の実施例までを図1から図32までを用いて説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment to a fourth embodiment of the present invention will be described with reference to FIGS.

【0010】はじめに本発明の第1の実施例を図1から
図13までを用いて説明する。図1は第1の実施例のシ
ステム構成図である。第1の実施例では、河川のような
広域を2台のズーム・チルト・パンするTVカメラから
のライブ映像をリアルタイムにパノラマ合成処理し、動
画のパノラマ映像により監視するシステムにおいて、2
台のカメラの映像の品質、例えばカメラ映像に写ってい
る建物,木,人物などのような対象の大きさやパース
(歪み具合)をほぼ同じにすることで、パノラマ合成処
理における映像の拡大処理による2つの映像の粗さの違
いや、パース補正処理による映像の不自然な歪みが起こ
らないようにするTVカメラの撮影パラメータ(パン
角,チルト角,ズーム率)を計算し、その撮影パラメー
タをテーブルに保持し、ユーザがテーブルの内容を指示
することで、その内容のパラメータでTVカメラを制御
し、前記の問題が起こらない映像をTVカメラで撮影す
るパノラマ映像生成用カメラシステムの例である。
First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a system configuration diagram of the first embodiment. In the first embodiment, in a system for real-time panoramic synthesis processing of live video from two TV cameras that zoom, tilt, and pan a wide area such as a river and monitor the panoramic video,
By making the image quality of the two cameras substantially the same, such as the size and perspective (degree of distortion) of an object such as a building, a tree, or a person in the camera image, the image is enlarged by the panorama synthesis process. Calculate the shooting parameters (pan angle, tilt angle, zoom ratio) of the TV camera to prevent the difference between the roughness of the two images and the unnatural distortion of the image due to the perspective correction processing, and store the shooting parameters in a table. This is an example of a camera system for generating a panoramic video, in which a user designates the content of a table, controls the TV camera with parameters of the content, and shoots an image free from the above-mentioned problem with the TV camera.

【0011】本システムは、ユーザがTVカメラのパ
ン,チルト,ズーム率を制御できる第1カメラ部100
と、第1カメラ部100で撮影した映像に写っている対
象のパースや大きさによってTVカメラのパン角,チル
ト角,ズーム率が制御される第2カメラ部130と、第
1カメラ部100と第2カメラ部130の映像を比較し
て、第2カメラ部130のTVカメラのパン,チルト,
ズームを計算し、また、第1カメラ部100と第2カメ
ラ部130で撮影されたライブ映像をパノラマ合成処理
し表示するパノラマ映像表示部160と、第1カメラ部
100と第2カメラ部130とパノラマ映像表示部16
0との間で、映像データや撮影パラメータを通信するネ
ットワーク190とからなる。
This system includes a first camera unit 100 that allows a user to control the pan, tilt, and zoom rates of a TV camera.
A second camera unit 130 in which the pan angle, the tilt angle, and the zoom ratio of the TV camera are controlled according to the perspective and size of an object captured in the video captured by the first camera unit 100; The video of the second camera unit 130 is compared, and the pan, tilt,
A panorama image display unit 160 that calculates a zoom, performs a panorama synthesis process on a live image captured by the first camera unit 100 and the second camera unit 130, and displays the panorama image; a first camera unit 100 and a second camera unit 130 Panoramic video display section 16
0 and a network 190 for communicating video data and photographing parameters.

【0012】第1カメラ部100は、現場の映像を撮影
するズーム率とチルト角とパン角が制御可能なTVカメ
ラ103と、TVカメラ103に対してパン角,チルト
角,ズーム率の指令を出し、TVカメラ103において
計測したパン角,チルト角,ズーム率を受け取るカメラ
制御部106と、TVカメラ103からのアナログ映像
信号を受け取り、その映像をキャプチャする映像キャプ
チャ部109と、パノラマ映像表示部160から送信さ
れるユーザによって指示された撮影パラメータ(パン
角,チルト角,ズーム率)を受信したり、カメラ制御部
106で受け取った計測された撮影パラメータをパノラ
マ映像表示部160に送信したり、映像キャプチャ部1
09でキャプチャした映像データをパノラマ映像表示部
160に送信したりするカメラ通信部112と、第1カ
メラ部100の全体の流れを制御するカメラ中央制御部
115とからなる。
The first camera unit 100 includes a TV camera 103 capable of controlling a zoom ratio, a tilt angle, and a pan angle for photographing an image of a site, and instructs the TV camera 103 on a pan angle, a tilt angle, and a zoom ratio. A camera control unit 106 for receiving pan and tilt angles and a zoom ratio measured by the TV camera 103, a video capture unit 109 for receiving an analog video signal from the TV camera 103 and capturing the video, and a panoramic video display unit The camera receives a shooting parameter (pan angle, tilt angle, zoom rate) designated by the user transmitted from the camera control unit 160, transmits the measured shooting parameter received by the camera control unit 106 to the panorama video display unit 160, Video capture unit 1
The camera communication unit 112 transmits the video data captured in step 09 to the panoramic video display unit 160, and the camera central control unit 115 controls the overall flow of the first camera unit 100.

【0013】第2カメラ部130は、第1カメラ部10
0と同様な構成で、TVカメラ部133とカメラ制御部
136と、映像キャプチャ部139と、カメラ通信部14
2と、カメラ中央制御部145とからなる。第2カメラ
部の各部の機能は、第1カメラ部の各部の機能と同じで
ある。
The second camera unit 130 is provided with the first camera unit 10.
0, a TV camera unit 133, a camera control unit 136, a video capture unit 139, and a camera communication unit 14.
2 and a camera central control unit 145. The function of each unit of the second camera unit is the same as the function of each unit of the first camera unit.

【0014】パノラマ映像表示部160は、ユーザから
の入力を受け付ける入力部(マウス)163と、第1カメ
ラ部100と第2カメラ部130で撮影された、それぞ
れの映像がオーバーラップする領域を求めるオーバーラ
ップ領域検出部187と、第1カメラ部100と第2カ
メラ部130で撮影された、それぞれの映像1コマの内
の特徴的なブロック、すなわち映像を16画素×16画
素からなるブロックに分割したときに、その分散値が最
も大きくなるブロックを求める特徴点抽出部166と、
特徴点抽出部166で抽出した特徴点を使って、映像中
の対象物の大きさやパースを比較し、比較結果から第2
カメラ部130の撮影パラメータを計算する撮影パラメ
ータ計算部169と、撮影パラメータ計算部169で計
算された撮影パラメータを保持する撮影パラメータテー
ブル172と、第1カメラ部100と第2カメラ部13
0から送られてくる映像データをリアルタイムにパノラ
マ映像合成処理するパノラマ映像生成部175と、パノ
ラマ映像生成部175によって生成されたパノラマ映像
を表示する映像表示部(モニタ)178と、第1カメラ
部100と第2カメラ部130から送られてくる映像デ
ータを受信したり、第1カメラ部100と第2カメラ部
130にTVカメラの撮影パラメータを送信したりする
パノラマ映像表示通信部181と、パノラマ映像表示部
の全体の流れを制御するパノラマ映像表示中央制御部1
84とからなる。
The panoramic image display unit 160 obtains an input unit (mouse) 163 for receiving an input from the user, and an area where the respective images captured by the first camera unit 100 and the second camera unit 130 overlap each other. The overlap area detection unit 187 and the characteristic blocks in one frame of each image captured by the first camera unit 100 and the second camera unit 130, that is, the image is divided into blocks of 16 pixels × 16 pixels. A feature point extracting unit 166 for finding a block having the largest variance value,
Using the feature points extracted by the feature point extraction unit 166, the size and perspective of the object in the video are compared, and the second
A photographing parameter calculator 169 for calculating photographing parameters of the camera unit 130, a photographing parameter table 172 holding the photographing parameters calculated by the photographing parameter calculator 169, the first camera unit 100 and the second camera unit 13
Panorama video generation unit 175 that performs real-time panorama video synthesis processing on video data sent from 0, a video display unit (monitor) 178 that displays a panorama video generated by the panorama video generation unit 175, and a first camera unit A panorama video display communication unit 181 that receives video data transmitted from the second camera unit 100 and the second camera unit 130 and transmits shooting parameters of a TV camera to the first camera unit 100 and the second camera unit 130; Panoramic image display central control unit 1 for controlling the overall flow of the image display unit
84.

【0015】第1カメラ部100のTVカメラ103と
第2カメラ部130のTVカメラ133は横並びに配置
する。
The TV camera 103 of the first camera unit 100 and the TV camera 133 of the second camera unit 130 are arranged side by side.

【0016】図2から図4は、本実施例のシステムのフ
ローチャートである。図2と図3は本実施例のシステム
のパノラマ映像表示部160のフローチャートであり、
図4は本実施例のシステムの第1カメラ部100および
第2カメラ部130のフローチャートである。
FIGS. 2 to 4 are flowcharts of the system according to the present embodiment. FIGS. 2 and 3 are flowcharts of the panoramic image display unit 160 of the system of the present embodiment.
FIG. 4 is a flowchart of the first camera unit 100 and the second camera unit 130 of the system according to the present embodiment.

【0017】まずはじめにパノラマ映像表示通信部18
1では、ステップ200において、初期設定として、第
1カメラ部100と第2カメラ部130との間でネット
ワーク通信接続を行う。そして、第1カメラ部100と
第2カメラ部130では、ステップ400において、初
期設定として、パノラマ映像表示部160との間にネッ
トワーク通信接続を行う。
First, a panoramic video display communication unit 18
In step 1, in step 200, a network communication connection is made between the first camera unit 100 and the second camera unit 130 as an initial setting. Then, in step 400, the first camera unit 100 and the second camera unit 130 make a network communication connection with the panoramic video display unit 160 as an initial setting.

【0018】次にステップ205では、撮影パラメータ
テーブル172に予め登録してある第1カメラ部103
のTVカメラ103と第2カメラ部130のTVカメラ
133との初期姿勢時の撮影パラメータをパノラマ映像表
示通信部181から第1カメラ部100と第2カメラ部
130へ送信する。
Next, at step 205, the first camera unit 103 registered in the photographing parameter table 172 in advance.
TV camera 103 and TV camera of the second camera unit 130
The panorama image display communication unit 181 transmits the shooting parameters at the time of the initial posture to the first camera unit 100 and the second camera unit 130.

【0019】まず、第1カメラ部100ではステップ4
05においてカメラ通信部112で撮影パラメータを受
信する。次にステップ410においてTVカメラ103
の姿勢すなわちパン,チルト,ズームをカメラ制御部1
06で制御する。そして、ステップ415では、制御後
のTVカメラ103で計測された撮影パラメータすなわ
ちパン角,チルト角,ズーム率をカメラ制御部106で
受け取り、カメラ通信部112からパノラマ映像表示部
160に送信する。
First, in the first camera section 100, step 4
At 05, the camera communication unit 112 receives the shooting parameters. Next, at step 410, the TV camera 103
Camera posture, pan, tilt, zoom
06 is controlled. Then, in step 415, the camera control unit 106 receives the imaging parameters measured by the TV camera 103 after the control, that is, the pan angle, the tilt angle, and the zoom ratio, and transmits them from the camera communication unit 112 to the panoramic video display unit 160.

【0020】第2カメラ部130でも第1カメラ部10
0の処理と同様に、ステップ405においてカメラ通信
部142で撮影パラメータを受信し、ステップ410に
おいてTVカメラ133の姿勢すなわちパン,チルト,
ズームをカメラ制御部136で制御し、ステップ415
において、制御後のTVカメラ133で計測された撮影
パラメータすなわちパン角,チルト角,ズーム率をカメ
ラ制御部136で受け取り、カメラ通信部142からパ
ノラマ映像表示部160に送信する。
The second camera unit 130 also uses the first camera unit 10
0, the camera communication unit 142 receives the shooting parameters in step 405, and in step 410, the posture of the TV camera 133, that is, pan, tilt,
The zoom is controlled by the camera control unit 136, and step 415 is performed.
In, the camera control unit 136 receives the imaging parameters measured by the TV camera 133 after the control, that is, the pan angle, the tilt angle, and the zoom ratio, and transmits the parameters from the camera communication unit 142 to the panorama video display unit 160.

【0021】次に、パノラマ映像表示部160では、ス
テップ210においてパノラマ映像表示通信部181に
おいて第1カメラ部100と第2カメラ部130から送
信された制御後の撮影パラメータを受信する。そして、
ステップ215では、ステップ210において受信した
第1カメラ部100と第2カメラ部130の撮影パラメ
ータを撮影パラメータテーブルに一時記憶する。
Next, in the panoramic video display section 160, the panoramic video display communication section 181 receives the controlled shooting parameters transmitted from the first camera section 100 and the second camera section 130 in step 210. And
In step 215, the shooting parameters of the first camera unit 100 and the second camera unit 130 received in step 210 are temporarily stored in the shooting parameter table.

【0022】次にステップ220では、パノラマ映像表
示通信部181から第1カメラ部100に対して、映像
送信要求を送信する。そして、ステップ420において
映像送信要求をカメラ通信部112で受信し、ステップ
425においてTVカメラ103の映像1コマを映像キ
ャプチャ部109でキャプチャする。それからステップ
430において、ステップ425でキャプチャした映像
1コマをカメラ通信部112からパノラマ映像表示通信
部181に送信する。そして、ステップ225において、
第1カメラ部100から送信された映像1コマをパノラ
マ映像表示通信部181において受信する。
Next, at step 220, the panoramic video display communication section 181 transmits a video transmission request to the first camera section 100. Then, in step 420, a video transmission request is received by the camera communication unit 112, and in step 425, one video frame of the TV camera 103 is captured by the video capture unit 109. Then, in step 430, one frame of the video captured in step 425 is transmitted from the camera communication unit 112 to the panorama video display communication unit 181. Then, in step 225,
One frame of video transmitted from the first camera unit 100 is received by the panoramic video display communication unit 181.

【0023】次にステップ230では、パノラマ映像表
示通信部181から第2カメラ部130に対して、映像
送信要求を送信する。そして、ステップ420において
映像送信要求をカメラ通信部142で受信し、ステップ
425においてTVカメラ133の映像1コマを映像キ
ャプチャ部139でキャプチャする。それからステップ
430において、ステップ425でキャプチャした映像
1コマをカメラ通信部142からパノラマ映像表示通信
部181に送信する。そして、ステップ235において、
第2カメラ部130から送信された映像1コマをパノラ
マ映像表示通信部181において受信する。
Next, at step 230, the panoramic video display communication section 181 transmits a video transmission request to the second camera section 130. Then, in step 420, a video transmission request is received by the camera communication unit 142, and in step 425, one video frame of the TV camera 133 is captured by the video capture unit 139. Then, in step 430, one frame of the video captured in step 425 is transmitted from the camera communication unit 142 to the panorama video display communication unit 181. Then, in step 235,
One frame of the video transmitted from the second camera unit 130 is received by the panoramic video display communication unit 181.

【0024】次にステップ250では、ステップ225
とステップ235において受信した第1カメラ部100
の映像1コマと第2カメラ部の映像1コマからオーバー
ラップする部分をオーバーラップ領域検出部187で検
出する。
Next, at step 250, step 225
And the first camera unit 100 received in step 235
The overlap area detection unit 187 detects an overlapping portion from one frame of the image of the second camera unit and one frame of the image of the second camera unit.

【0025】ここで、2つのカメラ映像からオーバーラ
ップ領域を検出する処理について説明する。図5は、オ
ーバーラップ領域を検出するフローチャートである。
Here, a process for detecting an overlap area from two camera images will be described. FIG. 5 is a flowchart for detecting an overlap area.

【0026】本実施例のオーバーラップ領域の検出処理
では処理の高速化を図るため2つのカメラ映像をモザイ
ク処理し、それからモザイク処理した2枚の映像を少し
ずつずらして重ね合わせながら最も相関を求めるという
過程を辿る。
In the overlap area detection processing of the present embodiment, two camera images are mosaic-processed in order to speed up the processing, and then the two images mosaiced are shifted little by little and superimposed to obtain the maximum correlation. Follow the process.

【0027】まず始めにステップ500においてオーバ
ーラップ領域検出処理をするための初期設定を行う。こ
こでは、ステップ520とステップ525で扱われる第
1カメラ部100の映像と第2カメラ部130の映像の
重なり部分における相関の値の初期値1000を設定す
る。
First, in step 500, initialization for performing the overlap area detection processing is performed. Here, the initial value 1000 of the correlation value in the overlapping part of the image of the first camera unit 100 and the image of the second camera unit 130 handled in steps 520 and 525 is set.

【0028】そして、ステップ505において、第1カ
メラ部100の映像と第2カメラ部130の映像をそれ
ぞれモザイク処理する。
In step 505, the image of the first camera unit 100 and the image of the second camera unit 130 are subjected to mosaic processing.

【0029】図6は第1カメラ部100でキャプチャし
た映像600と、第2カメラ部130でキャプチャする映
像620である。ここでは、第1カメラ部映像600と
第2カメラ部映像620は、カメラの配置条件から必
ず、第1カメラ部映像600の右側(オーバーラップ領
域610)、第2カメラ部映像620の左側(オーバー
ラップ領域630)でオーバーラップする。そして、第
1カメラ部映像600と第2カメラ部映像620の解像
度は横320画素,縦240画素とする。
FIG. 6 shows an image 600 captured by the first camera unit 100 and an image 620 captured by the second camera unit 130. Here, the first camera unit image 600 and the second camera unit image 620 are necessarily located on the right side (overlap area 610) of the first camera unit image 600 and on the left side (overlap area) of the second camera unit image 620 due to camera arrangement conditions. Overlap at the overlap region 630). The resolutions of the first camera unit image 600 and the second camera unit image 620 are 320 pixels horizontally and 240 pixels vertically.

【0030】ここでのモザイク処理では、それぞれの映
像を16画素×16画素からなるブロックに分割し、各
ブロックの平均輝度を求め、各ブロックの輝度を求めた
平均輝度としている。
In the mosaic processing, each image is divided into blocks each composed of 16 pixels × 16 pixels, the average luminance of each block is determined, and the luminance of each block is determined as the average luminance.

【0031】次にステップ510では、第1カメラ部映
像600をモザイク処理した映像と第2カメラ映像60
0をモザイク処理した映像との相関をとるための初期位
置の設定を行う。図7は、第1カメラ部映像600をモ
ザイク処理した映像700と第2カメラ映像720をモ
ザイク処理した映像710との間で相関の求め方を説明
する図である。ステップ510では、第1カメラ部モザ
イク映像700の下部1ブロックと第2カメラ部モザイ
ク映像720の上部1ブロックとが重なり合い、かつそ
れぞれの映像が横方向でずれなく重なり合う位置を初期
位置として設定する。
Next, at step 510, the image obtained by performing the mosaic processing on the first camera section image 600 and the second camera image 60 are displayed.
An initial position for correlating 0 with a mosaic-processed image is set. FIG. 7 is a diagram for explaining how to obtain a correlation between the image 700 obtained by performing the mosaic processing on the first camera unit image 600 and the image 710 obtained by performing the mosaic processing on the second camera image 720. In step 510, a position where the lower one block of the first camera unit mosaic image 700 and the upper one block of the second camera unit mosaic image 720 overlap and where each image overlaps in the horizontal direction without shifting is set as an initial position.

【0032】続いて、ステップ515では、第1カメラ
部モザイク映像700と第2カメラ部モザイク映像71
0との重なり部分720との相関を求める。ここで相関
の値は、重なり部分720における映像700のブロッ
クの輝度と映像710のブロックの輝度の差の総和を重
なり部分720の総ブロック数で割った値の逆数とし、
重なり部分720における第1カメラ部モザイク映像7
00のブロックと第2カメラ部モザイク映像710のブ
ロックが似ているほど、相関の値は大きくなり、似てい
ないと総監の値は小さくなる。
Subsequently, in step 515, the first camera unit mosaic image 700 and the second camera unit mosaic image 71
The correlation with the overlapping portion 720 with 0 is obtained. Here, the value of the correlation is the reciprocal of a value obtained by dividing the sum of the difference between the luminance of the block of the image 700 and the luminance of the block of the image 710 in the overlapping portion 720 by the total number of blocks in the overlapping portion 720,
First camera unit mosaic image 7 at overlapping portion 720
The more similar the 00 block and the block of the second camera unit mosaic image 710 are, the larger the correlation value is. If not, the value of the supervisor is small.

【0033】次にステップ520では、ステップ515
において求めた相関の値の最小値を求めるため、現在の
相関の最小値とステップ515において求めた相関の値
とを比較する。そして、ステップ515において求めた
相関の値の方が小さい場合にはステップ525において
相関の最小値をステップ515において求めた相関の値
とし、ステップ530においてステップ515で相関の
値を求めたときの映像700と映像720の重なり位置
を記憶する。一方ステップ515において求めた相関の
値の方が大きいまたは等しい場合にはステップ535に
進む。
Next, at step 520, step 515
In order to obtain the minimum value of the correlation value obtained in the above, the current minimum value of the correlation is compared with the correlation value obtained in step 515. If the correlation value obtained in step 515 is smaller, the minimum value of the correlation is used as the correlation value obtained in step 515 in step 525, and the image obtained when the correlation value is obtained in step 515 in step 530. The overlapping position between 700 and the image 720 is stored. On the other hand, if the correlation value obtained in step 515 is larger or equal, the process proceeds to step 535.

【0034】ステップ535では、第2カメラ部モザイ
ク映像710を第1カメラ部モザイク映像700に対し
て1ブロック上にスライドさせる位置に設定し、ステッ
プ540において、モザイク映像の重なり部分720の
有無を判別し、モザイク映像の重なり部分720がある
場合にはステップ515に戻り、モザイク映像の重なり
部分720がない場合にはステップ545に進み、第1
カメラ部モザイク映像700の下部1ブロックと第2カ
メラ部モザイク映像720の上部1ブロックとが重なり
合う位置に映像を設定し、さらにステップ550におい
て、第2カメラ部モザイク映像720を右方向に1ブロ
ックスライドさせた位置に設定する。ステップ555で
は、モザイク映像の重なり部分720の有無を判別し、
モザイク映像の重なり部分720がある場合にはステッ
プ515に戻り、モザイク映像の重なり部分720がな
い場合にはステップ550に進み処理を終了する。
In step 535, the second camera unit mosaic image 710 is set at a position where the second camera unit mosaic image 710 is slid one block higher than the first camera unit mosaic image 700. In step 540, it is determined whether or not the mosaic image overlap portion 720 exists. If there is an overlapping portion 720 of the mosaic video, the process returns to step 515. If there is no overlapping portion 720 of the mosaic video, the process proceeds to step 545, and the first
An image is set at a position where the lower one block of the camera unit mosaic image 700 and the upper one block of the second camera unit mosaic image 720 overlap, and in step 550, the second camera unit mosaic image 720 slides one block to the right. Set to the position that was made. In step 555, it is determined whether or not the overlapping portion 720 of the mosaic image exists,
If there is an overlapping portion 720 of the mosaic video, the process returns to step 515. If there is no overlapping portion 720 of the mosaic video, the process proceeds to step 550 to end the process.

【0035】以上がオーバーラップ領域検出処理であ
る。
The above is the overlap area detection processing.

【0036】次にステップ245では、特徴点抽出部1
66において、第1カメラ部映像600のオーバーラッ
プ領域610から特徴的なブロックを検出し、さらにそ
の特徴的なブロックに対応する第2カメラ部映像620
のオーバーラップ領域630内のブロックを検出する。こ
こで、オーバーラップ領域610の特徴的なブロックを
特徴ブロックと呼び、オーバーラップ領域630の特徴
ブロックに対応するブロックを対応ブロックと呼び、特
徴ブロックと対応ブロックの大きさを16画素×16画
素とする。
Next, at step 245, the feature point extracting unit 1
At 66, a characteristic block is detected from the overlap area 610 of the first camera unit image 600, and the second camera unit image 620 corresponding to the characteristic block is further detected.
The block in the overlap area 630 is detected. Here, a characteristic block of the overlap area 610 is called a feature block, a block corresponding to the feature block of the overlap area 630 is called a corresponding block, and the size of the feature block and the corresponding block is 16 pixels × 16 pixels. I do.

【0037】図8と図9は特徴点抽出処理のフローチャ
ートである。
FIGS. 8 and 9 are flowcharts of the feature point extracting process.

【0038】ここでは、第1カメラ部映像600のオー
バーラップ領域610を16画素×16画素のブロック
に分割し各ブロックの分散値を計算し、それから隣接す
るブロックの分散値が似ているブロックを除外したもの
を特徴ブロック候補とする。そして、ブロック候補の内
で、最も左上,左下,右上,右下にある4つのブロック
を特徴ブロックとする。そして、その特徴ブロックをテ
ンプレートとして、第2カメラ部映像620をスキャン
し、相関の最も大きい所を対応ブロックとして検出す
る。さらに撮影パラメータを計算するために4つの特徴
ブロックを結んだ矩形と4つの対応ブロックを結んだ矩
形とを作る。
Here, the overlap area 610 of the first camera unit image 600 is divided into blocks of 16 pixels × 16 pixels, and the variance of each block is calculated. Excluded ones are set as feature block candidates. Then, among the block candidates, the four blocks at the upper left, lower left, upper right, and lower right are set as characteristic blocks. Then, using the feature block as a template, the second camera unit image 620 is scanned, and a portion having the largest correlation is detected as a corresponding block. Further, a rectangle connecting the four feature blocks and a rectangle connecting the four corresponding blocks are created to calculate the photographing parameters.

【0039】まずはじめに、ステップ800において特
徴点抽出処理を開始しステップ805に進む。ステップ8
05では第1カメラ部映像600のオーバーラップ領域
610を16画素×16画素からなるブロックに分割し、
各ブロックの分散値を計算し、ステップ810に進む。
ステップ810では、特徴ブロックの候補となることを
示す候補フラグ=1を第1カメラ部映像600のオーバ
ーラップ領域610の全てのブロックに対して初期設定
しステップ815に進む。ここで、候補フラグ=0のブ
ロックは特徴ブロック候補外であることを意味する。
First, at step 800, feature point extraction processing is started, and the routine proceeds to step 805. Step 8
05 is the overlap area of the first camera section image 600
610 is divided into blocks of 16 pixels x 16 pixels,
The variance value of each block is calculated, and the process proceeds to step 810.
In step 810, a candidate flag = 1 indicating a candidate for a feature block is initially set for all blocks in the overlap region 610 of the first camera unit image 600, and the process proceeds to step 815. Here, the block with the candidate flag = 0 means that the block is outside the feature block candidate.

【0040】ステップ815からステップ850まで
は、横に隣接するブロック同士が同じ模様をしているか
否かを判別し、同じ模様をしているブロックは特徴ブロ
ック候補から除外する処理を行う。
In steps 815 to 850, it is determined whether or not horizontally adjacent blocks have the same pattern, and blocks having the same pattern are excluded from the feature block candidates.

【0041】ステップ815では、隣接するブロックの
分散値が似通っているか否かを判別するブロック(以下
参照ブロックと呼ぶ)としてオーバーラップ領域610
の最も左上にあるブロックを初期位置として設定する。
図10は、第1カメラ部映像600のオーバーラップ領
域610から特徴ブロックのスキャンを説明する図であ
る。ステップ810では、参照ブロックとして、オーバ
ーラップ領域610の左上ブロック1040を設定す
る。
In step 815, the overlap area 610 is used as a block (hereinafter referred to as a reference block) for determining whether or not the variance values of adjacent blocks are similar.
Is set as the initial position.
FIG. 10 is a diagram for explaining scanning of a feature block from the overlap area 610 of the first camera section image 600. In step 810, an upper left block 1040 of the overlap area 610 is set as a reference block.

【0042】次にステップ820では、参照ブロックが
オーバーラップ領域610の右端のブロック1050で
あるか否かを判別し、右端のブロックでない場合にはス
テップ835に進み、右端のブロックである場合にはス
テップ825に進む。
Next, in step 820, it is determined whether or not the reference block is the rightmost block 1050 of the overlap area 610. If not, the process proceeds to step 835. If the reference block is the rightmost block, the process proceeds to step 835. Proceed to step 825.

【0043】ステップ825ではオーバーラップ領域6
10が下端のブロック1060であるか否かを判別し、
下端のブロックである場合にはステップ855に進み、
下端のブロックでない場合にはステップ830に進み、
参照ブロックを一段下の左端のブロックに移動する。例
えば、現在の参照ブロック1070であった場合、ブロ
ック1080に移動する。
In step 825, the overlap area 6
It is determined whether or not 10 is the lower block 1060,
If it is the block at the lower end, the process proceeds to step 855,
If it is not the bottom block, go to step 830,
Move the reference block to the leftmost block one step down. For example, if it is the current reference block 1070, the process moves to block 1080.

【0044】次にステップ835では参照ブロックと参
照ブロックの右隣のブロックが似通った模様であるか否
かを判別するために、参照ブロックの分散値と参照ブロ
ックの右隣のブロックの分散値の差分の絶対値を計算す
る。例えば、参照ブロック1000であった場合、参照
ブロック1000の分散値と右隣のブロック1010の分散
値の差分の絶対値を計算する。
Next, at step 835, the variance value of the reference block and the variance value of the block immediately to the right of the reference block are determined in order to determine whether the reference block and the block to the right of the reference block have similar patterns. Calculate the absolute value of the difference. For example, in the case of the reference block 1000, the absolute value of the difference between the variance of the reference block 1000 and the variance of the block 1010 on the right is calculated.

【0045】次にステップ840では、ステップ835
で計算した分散値の差分の絶対値が一定の値20未満で
あるか否かを判別する。すなわち、分散値の差分の絶対
値が20未満である場合には隣り合うブロックの模様は
似通っている(特徴的な点ではない)かどうかを判別す
る。ここで分散値の差分の絶対値が20未満であった場
合にはステップ850に進み、そうでない場合にはステ
ップ845に進み、参照ブロックとその右隣のブロック
に対して特徴フラグ=0を設定してからステップ850
に進む。
Next, in step 840, step 835
It is determined whether or not the absolute value of the difference between the variance values calculated in step (1) is less than a certain value 20. That is, when the absolute value of the difference between the variances is less than 20, it is determined whether or not the patterns of adjacent blocks are similar (not a characteristic point). If the absolute value of the difference between the variances is less than 20, the process proceeds to step 850; otherwise, the process proceeds to step 845, and the feature flag is set to 0 for the reference block and the block on the right. And then step 850
Proceed to.

【0046】ステップ850では、参照ブロックを1つ
右隣のブロックに移動する。例えば、参照ブロック10
00であった場合、参照ブロックをブロック1010に
スライドさせる。
In step 850, the reference block is moved one block to the right. For example, reference block 10
If it is 00, the reference block is slid to block 1010.

【0047】そして、ステップ820に戻る。Then, the process returns to step 820.

【0048】ステップ855からステップ940まで
は、縦に隣接するブロック同士が同じ模様をしているか
否かを判別し、同じ模様をしているブロックは特徴ブロ
ック候補から除外する処理を行う。
In steps 855 to 940, it is determined whether or not vertically adjacent blocks have the same pattern, and blocks having the same pattern are excluded from the feature block candidates.

【0049】ステップ855では、参照ブロック位置を
オーバーラップ領域610の最も左上にあるブロック1
030を初期位置として設定し、ステップ900に進
む。
In step 855, the reference block position is set to the block 1 located at the upper left of the overlap area 610.
030 is set as the initial position, and the routine proceeds to step 900.

【0050】ステップ900では、参照ブロックが下端
ブロック1060であるか否かを判別し、下端ブロック
1060である場合にはステップ935に進み、下端ブ
ロック1060でない場合にはステップ905に進む。
At step 900, it is determined whether or not the reference block is the lower end block 1060. If the reference block is the lower end block 1060, the flow proceeds to step 935; otherwise, the flow proceeds to step 905.

【0051】ステップ905では、参照ブロックと参照
ブロックの1段下のブロックが似通った模様であるか否
かを判別するために、参照ブロックの分散値と参照ブロ
ックの1段下のブロックの分散値の差分の絶対値を計算
する。例えば、参照ブロック1000であった場合、参
照ブロック1000の分散値と1段下のブロック1020の
分散値の差分の絶対値を計算する。
In step 905, the variance value of the reference block and the variance value of the block one stage below the reference block are determined in order to determine whether the reference block and the block one stage below the reference block have similar patterns. Calculate the absolute value of the difference of. For example, in the case of the reference block 1000, the absolute value of the difference between the variance value of the reference block 1000 and the variance value of the block 1020 one stage below is calculated.

【0052】次にステップ910では、ステップ905
で計算した分散値の差分の絶対値が一定の値20未満で
あるか否かを判別する。ここで分散値の差分の絶対値が
20未満であった場合にはステップ920に進み、そう
でない場合にはステップ815に進み、参照ブロックとそ
の右隣のブロックに対して特徴フラグ=0を設定してか
らステップ820に進む。
Next, in step 910, step 905
It is determined whether or not the absolute value of the difference between the variance values calculated in step (1) is less than a certain value 20. If the absolute value of the difference between the variances is less than 20, the process proceeds to step 920; otherwise, the process proceeds to step 815, and the feature flag = 0 is set for the reference block and the block on the right thereof. Then, the process proceeds to step 820.

【0053】ステップ920では、参照ブロックがオー
バーラップ領域610の右端のブロック1050である
か否かを判別し、右端のブロックである場合にはステッ
プ925に進み参照ブロックを左端の1段下のブロック
に移動し、ステップ900に戻る。そして、右端のブロ
ックでない場合にはステップ930に進み右隣ブロック
に移動し、ステップ900に戻る。
In step 920, it is determined whether or not the reference block is the rightmost block 1050 of the overlap area 610. If the reference block is the rightmost block, the flow advances to step 925 to move the reference block to the block one step below the leftmost block. And returns to step 900. If the block is not the rightmost block, the process proceeds to step 930, moves to the block on the right, and returns to step 900.

【0054】ステップ935では、候補フラグが1であ
るブロックの中からオーバーラップ領域610の四隅に
最も近い点(最左上点,最左下点,最右上点,最右下
点)をそれぞれ検出し、それらを特徴ブロックとする。
At step 935, points closest to the four corners of the overlap area 610 (upper left point, lower left point, upper right point, lower right point) are detected from the blocks having the candidate flag of 1, respectively. Let them be feature blocks.

【0055】次にステップ940おいて、ステップ93
5で検出した4つの特徴ブロックをそれぞれテンプレー
トとし、そのテンプレートに最もマッチングする所を縦
方向横方向共に1画素ずつスライドさせながら、第2カ
メラ映像620のオーバーラップ領域630の中から検
出し、それら4つの特徴ブロックに最もマッチングした
4つのブロックを対応ブロックとする。
Next, in step 940, step 93
Each of the four feature blocks detected in step 5 is used as a template, and the location that best matches the template is slid one pixel at a time in both the vertical and horizontal directions, and detected from the overlap area 630 of the second camera image 620. The four blocks most matching the four feature blocks are defined as corresponding blocks.

【0056】次にステップ945において、4つの特徴
ブロックを線で結んだ矩形を作りその矩形を特徴矩形と
する。次にステップ950において、4つの対応ブロッ
クを線で結んだ矩形を作りその矩形を対応矩形とする。
そしてステップ955で処理を終了する。
Next, in step 945, a rectangle is formed by connecting the four feature blocks with lines, and the rectangle is defined as a feature rectangle. Next, in step 950, a rectangle is formed by connecting four corresponding blocks with lines, and the rectangle is set as a corresponding rectangle.
Then, the process ends in step 955.

【0057】以上が特徴点抽出処理である。The above is the feature point extraction processing.

【0058】次にステップ250では撮影パラメータ計
算部169において第1カメラ部映像の特徴矩形と第2
カメラ部映像の対応矩形とを比較し、それぞれの映像に
撮影された対象の大きさが同じになるズーム率と、それ
ぞれの映像のパースの状態が同じになるパン角,チルト
角を求める。
Next, in step 250, the photographing parameter calculation unit 169 calculates the characteristic rectangle of the first camera unit image and the second rectangle.
By comparing the corresponding rectangle of the camera unit image with the corresponding rectangle, the zoom ratio at which the size of the object photographed in each image is the same, and the pan angle and the tilt angle at which the perspective state of each image is the same are obtained.

【0059】ここで、撮影パラメータ計算処理について
説明する。
Here, the photographing parameter calculation processing will be described.

【0060】図13は、特徴矩形と対応矩形のパース
(歪み具合)と、その大きさからパン角,チルト角,ズ
ーム率を求める方法を示した図である。
FIG. 13 is a diagram showing a perspective (distortion degree) of a feature rectangle and a corresponding rectangle, and a method of obtaining a pan angle, a tilt angle, and a zoom rate from the size.

【0061】まず始めにパン角の補正方法について説明
する。ここで特徴矩形1300は正方形であると仮定す
る。パースの影響で左辺と右辺が平行な台形状になって
いる対応領域1310を特徴矩形と同じ形(正方形)にす
るために第2カメラ部130のTVカメラ133のパン
角を制御する。すなわち、第1カメラ部100の特徴矩
形1300の右辺の長さと左辺の長さの比(パース(歪
み具合))と第2カメラ部130の対応矩形1310の
右辺の長さと左辺の長さの比(パース(歪み具合))と
が同じになるようにパン角を制御する。
First, a method of correcting a pan angle will be described. Here, it is assumed that feature rectangle 1300 is a square. The pan angle of the TV camera 133 of the second camera unit 130 is controlled so that the corresponding area 1310 having a trapezoidal shape in which the left side and the right side are parallel to each other due to the perspective becomes the same shape (square) as the characteristic rectangle. That is, the ratio (perspective (degree of distortion)) of the length of the right side to the length of the left side of the characteristic rectangle 1300 of the first camera unit 100 and the ratio of the length of the right side to the length of the left side of the corresponding rectangle 1310 of the second camera unit 130 The pan angle is controlled so that (perspective (degree of distortion)) becomes the same.

【0062】次にチルト角の補正方法について説明す
る。パースの影響で上辺と下辺が平行な台形状になって
いる対応領域1320を特徴矩形と同じ形(正方形)に
するために第2カメラ部130のTVカメラ133のチ
ルト角を制御する。すなわち第1カメラ部100の特徴
矩形1300の上辺の長さと下辺の長さの比(パース
(歪み具合))と第2カメラ部130の対応矩形132
0の上辺の長さと下辺の長さの比(パース(歪み具
合))とが同じになるようにチルト角を制御する。
Next, a method of correcting the tilt angle will be described. The tilt angle of the TV camera 133 of the second camera unit 130 is controlled so that the trapezoidal corresponding region 1320 whose upper side and lower side are parallel to each other due to the perspective makes the same shape (square) as the characteristic rectangle. That is, the ratio (perspective (degree of distortion)) of the length of the upper side to the lower side of the characteristic rectangle 1300 of the first camera unit 100 and the corresponding rectangle 132 of the second camera unit 130
The tilt angle is controlled so that the ratio of the length of the upper side to the length of the lower side of 0 (perspective (degree of distortion)) is the same.

【0063】次にズーム率の補正について説明する。T
Vカメラと撮影対象までの距離が異なるために特徴矩形
と大きさが異なっている対応矩形1330を特徴矩形と
同じ大きさにするために第2カメラ部130のTVカメ
ラ133のズーム率を制御する。すなわち第1カメラ部
100の特徴矩形1300の周囲の長さと第2カメラ部
130の対応矩形1320の周囲の長さとが同じになる
ようにズーム率を制御する。
Next, the correction of the zoom ratio will be described. T
The zoom ratio of the TV camera 133 of the second camera unit 130 is controlled to make the corresponding rectangle 1330 having a different size from the feature rectangle because the distance between the V camera and the shooting target is different to the same size as the feature rectangle. . That is, the zoom ratio is controlled so that the length around the characteristic rectangle 1300 of the first camera unit 100 and the length around the corresponding rectangle 1320 of the second camera unit 130 are the same.

【0064】図11と図12は撮影パラメータ計算処理
のフローチャートである。
FIGS. 11 and 12 are flowcharts of the photographing parameter calculation process.

【0065】まず始めにステップ1100において撮影
パラメータ計算処理を開始し、ステップ1105に進
む。ステップ1105では、撮影パラメータの計算が終
了したか否かを判別するための計算フラグ=0を設定す
る。計算フラグは、パン角とチルト角とズーム率の計算
に関して、それぞれ計算が終わる毎に補正フラグを1イ
ンクリメントし、計算フラグが3になった時点で本撮影
パラメータ計算処理を終了させる。
First, in step 1100, a photographing parameter calculation process is started, and the flow advances to step 1105. In step 1105, a calculation flag = 0 for determining whether or not the calculation of the shooting parameters has been completed is set. The calculation flag increments the correction flag by one each time the calculation of the pan angle, the tilt angle, and the zoom ratio is completed, and ends the photographing parameter calculation process when the calculation flag becomes three.

【0066】次にステップ1100からステップ113
0までは、第2カメラ部130のパン角を計算する処理
を行う。
Next, steps 1100 to 113
Until 0, the process of calculating the pan angle of the second camera unit 130 is performed.

【0067】ステップ1100では、特徴矩形と対応矩
形のパース(歪み具合)が等しいかどうかを判別するた
め、特徴矩形の(左辺の長さ/右辺の長さ)と対応矩形
の(左辺の長さ/右辺の長さ)の差の絶対値がある一定
量である0.1 未満か否かを判別し、0.1 未満である
場合にはステップ1130に進み、計算フラグの値を1
加算してからステップ1135に進む。そうでない場合
はステップ1115に進む。
In step 1100, to determine whether the parse (degree of distortion) of the feature rectangle and the corresponding rectangle is equal, the (length of left side / length of right side) of the feature rectangle and the (length of left side of the corresponding rectangle) are determined. It is determined whether the absolute value of the difference of (/ length of the right side) is less than a certain amount of 0.1, and if it is less than 0.1, the process proceeds to step 1130, where the value of the calculation flag is set to 1
After the addition, the process proceeds to step 1135. Otherwise, go to step 1115.

【0068】ステップ1115では特徴矩形の(左辺の
長さ/右辺の長さ)が対応矩形の(左辺の長さ/右辺の
長さ)より大きいか否かを判別し、大きい場合にはステ
ップ1120に進み、第2カメラ部130の補正パン角
を左方向に1度とし、ステップ1135に進む。小さい
場合にはステップ1125に進み、第2カメラ部130
の補正パン角を右方向に1度としステップ1135に進
む。
In step 1115, it is determined whether or not the characteristic rectangle (left side length / right side length) is larger than the corresponding rectangle (left side length / right side length). Then, the correction pan angle of the second camera unit 130 is set to 1 degree in the left direction, and the process proceeds to step 1135. If it is smaller, the process proceeds to step 1125 and the second camera unit 130
Is set to 1 degree in the right direction, and the flow advances to step 1135.

【0069】ステップ1135では、特徴矩形と対応矩
形のパース(歪み具合)が等しいかどうかを判別するた
め、特徴矩形の(上辺の長さ/下辺の長さ)と対応矩形
の(上辺の長さ/下辺の長さ)の差の絶対値がある一定
量である0.1 未満か否かを判別し、0.1 未満である
場合にはステップ1155に進み、計算フラグの値を1
加算してからステップ1200に進む。そうでない場合
はステップ1140に進む。
In step 1135, to determine whether the parse (degree of distortion) of the feature rectangle and the corresponding rectangle is equal, the (length of the upper side / length of the lower side) of the feature rectangle and the (length of the upper side) of the corresponding rectangle are determined. It is determined whether or not the absolute value of the difference of (/ length of the lower side) is less than a certain amount of 0.1, and if it is less than 0.1, the process proceeds to step 1155 and the value of the calculation flag is set to 1
After the addition, the process proceeds to step 1200. Otherwise, go to step 1140.

【0070】ステップ1135では特徴矩形の(上辺の
長さ/下辺の長さ)が対応矩形の(上辺の長さ/下辺の
長さ)より大きいか否かを判別し、大きい場合にはステ
ップ1145に進み、第2カメラ部130の補正チルト
角を上方向に1度とし、ステップ1200に進む。小さ
い場合にはステップ1150に進み、第2カメラ部13
0の補正チルト角を下方向に1度としステップ1200
に進む。
In step 1135, it is determined whether or not (length of the upper side / length of the lower side) of the characteristic rectangle is larger than (length of the upper side / length of the lower side) of the corresponding rectangle. Then, the correction tilt angle of the second camera unit 130 is set to 1 degree in the upward direction, and the process proceeds to step 1200. If it is smaller, the process proceeds to step 1150, where the second camera unit 13
At step 1200, the correction tilt angle of 0 is set to 1 degree downward.
Proceed to.

【0071】ステップ1100では、特徴矩形と対応矩
形の大きさが等しいかどうかを判別するため、特徴矩形
の周囲の長さ(上辺の長さ+下辺の長さ+左辺の長さ+
右辺の長さ)と対応矩形の周囲の長さ(上辺の長さ+下
辺の長さ+左辺の長さ+右辺の長さ)の差の絶対値があ
る一定量である1未満か否かを判別し、1未満である場
合にはステップ1220に進み、計算フラグの値を1加
算してからステップ1225に進む。そうでない場合は
ステップ1205に進む。
In step 1100, to determine whether the size of the feature rectangle and the corresponding rectangle are equal, the length around the feature rectangle (the length of the upper side + the length of the lower side + the length of the left side +
Whether the absolute value of the difference between the length of the right side) and the perimeter of the corresponding rectangle (top side length + bottom side length + left side length + right side length) is less than a certain amount, 1 Is determined, and if it is less than 1, the process proceeds to step 1220, where the value of the calculation flag is incremented by 1, and then the process proceeds to step 1225. Otherwise, the process proceeds to step 1205.

【0072】ステップ1205では特徴矩形の周囲の長
さ(上辺の長さ+下辺の長さ+左辺の長さ+右辺の長
さ)が対応矩形の周囲の長さ(上辺の長さ+下辺の長さ
+左辺の長さ+右辺の長さ)より大きいか否かを判別
し、大きい場合にはステップ1210に進み、第2カメラ部
130の補正ズーム量を−10%(広角)とし、ステッ
プ1225に進む。小さい場合にはステップ1215に
進み、第2カメラ部130の補正ズーム量を+10%
(望遠)としステップ1225に進む。
In step 1205, the length around the characteristic rectangle (length of the upper side + length of the lower side + length of the left side + length of the right side) is calculated as the length of the circumference of the corresponding rectangle (length of the upper side + length of the lower side). Length + left side length + right side length), and if it is larger, the process proceeds to step 1210, where the correction zoom amount of the second camera unit 130 is set to -10% (wide angle), and Proceed to 1225. If smaller, the process proceeds to step 1215, in which the correction zoom amount of the second camera unit 130 is increased by + 10%.
(Telephoto) and the process proceeds to step 1225.

【0073】ステップ1225では撮影パラメータ計算
処理が終了したかを判別するために計算フラグ=3であ
るか否かを判別する。計算フラグ=3である場合にはス
テップ1230に進み、計算処理終了フラグ=1とし、
ステップ1240に進む。そうでない場合にはステップ
1235に進み、計算処理終了フラグ=0とし、ステッ
プ1240に進む。ステップ1240では次の処理に進
む。
At step 1225, it is determined whether or not the calculation flag = 3 to determine whether or not the photographing parameter calculation processing has been completed. If the calculation flag is 3, the process proceeds to step 1230, where the calculation process end flag is set to 1, and
Proceed to step 1240. Otherwise, the process proceeds to step 1235, where the calculation process end flag is set to 0, and the process proceeds to step 1240. In step 1240, the process proceeds to the next process.

【0074】以上が撮影パラメータ計算処理である。The above is the photographing parameter calculation processing.

【0075】次にステップ255では、パノラマ映像表
示中央制御部184において、撮影パラメータ計算処理
によって、第1カメラ部100の映像と第2カメラ部1
30の映像のパース(歪み具合)と撮影対象の大きさが
同じになったかどうかを判別する。ここでは、ステップ
250において求めた計算終了処理フラグで判別し、計
算終了処理フラグ=0の場合すなわち、撮影パラメータ
計算処理が終了していない場合ステップ260に進み、
計算終了処理フラグ=1の場合すなわち、撮影パラメー
タ計算処理が終了した場合ステップ300に進む。
Next, in step 255, the panorama image display central control unit 184 executes the photographing parameter calculation process to execute the image of the first camera unit 100 and the second camera unit 1.
It is determined whether the perspective (distortion degree) of the 30 images and the size of the shooting target have become the same. Here, the determination is made based on the calculation end processing flag obtained in step 250, and when the calculation end processing flag = 0, that is, when the imaging parameter calculation processing is not completed, the process proceeds to step 260,
When the calculation end processing flag = 1, that is, when the photographing parameter calculation processing ends, the process proceeds to step 300.

【0076】次にステップ260では、ステップ250
において計算した第2カメラ部130の撮影パラメータを
パノラマ映像表示通信部181から第2カメラ部130
へ送信し、ステップ265に進む。
Next, in step 260, step 250
The photographing parameters of the second camera unit 130 calculated in the above are transmitted from the panoramic video display communication unit 181 to the second camera unit 130.
And the process proceeds to step 265.

【0077】第2カメラ部130ではステップ405に
おいてカメラ通信部112で撮影パラメータを受信し、
ステップ410においてTVカメラ103のパン,チル
ト,ズームをカメラ制御部106で制御し、ステップ4
15において制御後のTVカメラ103で計測された撮
影パラメータをカメラ通信部112からパノラマ映像表
示部160に送信する。
In the second camera section 130, in step 405, the camera communication section 112 receives the photographing parameters,
In step 410, the pan, tilt, and zoom of the TV camera 103 are controlled by the camera control unit 106, and
In step 15, the camera communication unit 112 transmits the panorama image display unit 160 with the shooting parameters measured by the TV camera 103 after control.

【0078】ステップ265では第2カメラ部130か
ら送られた撮影パラメータをパノラマ映像表示通信部1
81で受信し、ステップ270に進む。
In step 265, the photographing parameters sent from the second camera section 130 are transmitted to the panorama image display communication section 1.
It receives at 81 and proceeds to step 270.

【0079】ステップ270では、撮影パラメータテー
ブル172に一時記憶している第2カメラ部130の撮
影パラメータの内容をステップ265において受信した
撮影パラメータに更新する。そして、ステップ230に
戻る。
In step 270, the contents of the shooting parameters of the second camera unit 130 temporarily stored in the shooting parameter table 172 are updated to the shooting parameters received in step 265. Then, the process returns to step 230.

【0080】ステップ300では、パノラマ映像表示通
信部181において第1カメラ部100と第2カメラ部
130に対して映像送信要求を送信する。
In step 300, the panoramic video display communication section 181 transmits a video transmission request to the first camera section 100 and the second camera section 130.

【0081】第1カメラ部100では、ステップ420
において映像送信要求を受け取るとステップ425に進
み、映像キャプチャ部109でTVカメラ103の映像
を1コマキャプチャする。そして、ステップ430にお
いて、キャプチャした映像1コマをカメラ通信部112
からパノラマ映像表示部160に送信する。
In the first camera section 100, step 420
When a video transmission request is received at step 425, the process proceeds to step 425, and the video capture unit 109 captures one frame of the video of the TV camera 103. Then, in step 430, one frame of the captured video is
Is transmitted to the panoramic video display unit 160.

【0082】また、第2カメラ部130においても同様
に、ステップ420において映像送信要求を受け取ると
ステップ425に進み、映像キャプチャ部139でTV
カメラ133の映像を1コマキャプチャし、ステップ4
30においてキャプチャした映像1コマをカメラ通信部
142からパノラマ映像表示部160に送信する。
Similarly, when the second camera unit 130 receives a video transmission request in step 420, the process proceeds to step 425, and the video capture unit 139 sets the TV.
Capture one frame of the image of camera 133, step 4
In step 30, one frame of the captured video is transmitted from the camera communication unit 142 to the panoramic video display unit 160.

【0083】パノラマ映像表示部160では、ステップ
305において、第1カメラ部100と第2カメラ部13
0から送られるそれぞれ映像1コマをパノラマ映像表示
通信部181で受信する。
In the panoramic image display section 160, in step 305, the first camera section 100 and the second camera section 13
The panorama image display communication unit 181 receives one frame of each image sent from 0.

【0084】次にステップ310では、パノラマ映像生
成部175において、2台のカメラから受信した映像を
パノラマ映像生成処理し1枚の映像として合成する。
Next, at step 310, the panorama video generation section 175 performs a panorama video generation process on the video received from the two cameras and synthesizes the video as one video.

【0085】次にステップ315では、パノラマ映像生
成部175において合成したパノラマ映像を映像表示部
178に表示し、ステップ320に進む。
Next, at step 315, the panoramic video synthesized by the panoramic video generator 175 is displayed on the video display 178, and the flow advances to step 320.

【0086】ステップ320では、ユーザからの終了要
求が入力部163からあるか否かを判別し、終了要求が
ある場合にはステップ325に進み、終了要求がない場
合にはステップ330に進む。
At step 320, it is determined whether or not a termination request from the user has been received from the input unit 163. If there is a termination request, the process proceeds to step 325. If there is no termination request, the process proceeds to step 330.

【0087】ステップ325ではパノラマ映像表示通信
部181において、第1カメラ部100と第2カメラ部
130に対し終了命令を送信し、ステップ375に進
む。ステップ375ではパノラマ映像表示中央制御部1
84においてパノラマ映像表示部160の終了処理を行
う。
At step 325, the panorama image display communication unit 181 transmits an end command to the first camera unit 100 and the second camera unit 130, and proceeds to step 375. In step 375, the panorama image display central control unit 1
At 84, the end processing of the panoramic video display unit 160 is performed.

【0088】第1カメラ部100では、ステップ435
において、カメラ通信部112で終了命令を受信する
と、ステップ440に進みカメラ中央制御部115にお
いて第1カメラ部100の終了処理を行う。第2カメラ
部130でも同様に、ステップ435において、カメラ
通信部142で終了命令を受信すると、ステップ440
に進みカメラ中央制御部145において第2カメラ部1
30の終了処理を行う。ステップ330では、入力部1
63においてユーザからの撮影パラメータ登録要求があ
るか否かを判別し、撮影パラメータ登録要求がある場合
にはステップ335に進み、撮影パラメータテーブルに
一時記憶してある撮影パラメータを撮影パラメータテー
ブルに登録しステップ340に進み、撮影パラメータ登
録要求がない場合にはステップ340に進む。
In the first camera section 100, step 435 is executed.
In step S440, when the camera communication unit 112 receives the end command, the process proceeds to step S440, and the camera central control unit 115 performs the end process of the first camera unit 100. Similarly, in the second camera unit 130, when the camera communication unit 142 receives an end command in step 435, the process proceeds to step 440.
To the second camera unit 1 in the camera central control unit 145.
Then, the end processing of 30 is performed. In step 330, the input unit 1
At 63, it is determined whether or not there is a photographing parameter registration request from the user. If there is a photographing parameter registration request, the process proceeds to step 335, where the photographing parameters temporarily stored in the photographing parameter table are registered in the photographing parameter table. Proceeding to step 340, if there is no photographing parameter registration request, proceeding to step 340.

【0089】ステップ340では、入力部163におい
てユーザが撮影パラメータテーブルの内容を記述したメ
ニューから所望の撮影パラメータを選択したかどうかを
判別し、選択した場合にはステップ345に進み、そう
でない場合にはステップ355に進む。
In step 340, it is determined whether or not the user has selected a desired photographing parameter from a menu describing the contents of the photographing parameter table in the input unit 163. If so, the process proceeds to step 345; Goes to step 355.

【0090】ステップ345ではパノラマ映像表示通信
部181において第1カメラ部100と第2カメラ部13
0に対して撮影パラメータを送信し、ステップ350に
おいてパノラマ映像表示通信部181で第1カメラ部1
00と第2カメラ部130から返信される撮影パラメー
タを受信し、2つのカメラ部のカメラ制御終了を確認
し、ステップ300に戻る。
In step 345, the first camera unit 100 and the second camera unit 13 in the panorama image display communication unit 181
In step 350, the panorama image display communication unit 181 transmits the shooting parameters to the first camera unit 1.
00 and the photographing parameters returned from the second camera unit 130, the end of the camera control of the two camera units is confirmed, and the process returns to step 300.

【0091】次にステップ355では、入力部163に
おいてユーザからの第1カメラ部100に対するパン,
チルト,ズーム操作があったかどうかを判別し、操作が
なかった場合にはステップ300に戻り、ユーザのカメ
ラ操作があった場合にはステップ360に進む。
Next, in step 355, the user inputs a pan to the first camera unit 100 using the input unit 163.
It is determined whether a tilt or zoom operation has been performed. If no operation has been performed, the process returns to step 300, and if a user operation has been performed on the camera, the process proceeds to step 360.

【0092】ステップ360では、パノラマ映像表示通
信部181から第1カメラ部100に、ステップ355
においてユーザがカメラ操作したときのパン角,チルト
角,ズーム率を送信し、ステップ365では、第1カメ
ラ部100から返信される第1カメラ部100のカメラ
制御後の撮影パラメータをパノラマ映像表示通信部18
1で受信する。
In step 360, the panorama image display communication unit 181 sends the first camera unit 100 a step 355.
In step, the pan angle, tilt angle, and zoom ratio when the user operates the camera are transmitted. In step 365, the photographing parameters after camera control of the first camera unit 100 returned from the first camera unit 100 are transmitted in a panoramic video display communication. Part 18
1 to receive.

【0093】次にステップ370ではステップ365で
受信した第1カメラ部100のs撮影パラメータを撮影
パラメータテーブル172に一時記憶する。そして、ス
テップ220に戻る。
Next, in step 370, the s shooting parameters of the first camera unit 100 received in step 365 are temporarily stored in the shooting parameter table 172. Then, the process returns to step 220.

【0094】このように、第1の実施例では映像合成に
よる最も歪みが小さくなる2台のTVカメラの撮影パラ
メータを自動的に計算し、その撮影パラメータをテーブ
ルに記憶しておき、ユーザが指示したユーザが監視した
い撮影方向のテーブルの内容(撮影パラメータ)でカメ
ラ制御することで、パノラマ合成処理における映像の拡
大処理による2つの映像の粗さの違いや、パース補正処
理による映像の不自然な歪みを起こらないようにするこ
とができる。
As described above, in the first embodiment, the photographing parameters of the two TV cameras that minimize the distortion due to the image composition are automatically calculated, the photographing parameters are stored in the table, and the user can instruct. By controlling the camera with the contents of the shooting direction table (shooting parameters) that the user wants to monitor, the difference in the roughness of the two images due to the image enlargement processing in the panorama synthesis processing and the unnaturalness of the images due to the perspective correction processing Distortion can be prevented.

【0095】次に本発明の第2の実施例を図14から図
24までを用いて説明する。
Next, a second embodiment of the present invention will be described with reference to FIGS.

【0096】図14は第2の実施例におけるTVカメラ
の配置図である。第2の実施例ではTVカメラを競技場
のような横方向に長い撮影対象に対して横並びに配置
し、ユーザが中央のカメラ1503を操作すると、それ
に追随して左右にあるTVカメラ(左サブカメラ152
3と右サブカメラ1543)が歪みのないパノラマ映像
を生成できる撮影方向、ズーム率に自動制御される例で
ある。本実施例のシステムではパノラマ映像は3台のカ
メラのライブ映像をリアルタイムにパノラマ合成処理
し、動画のパノラマ映像を表示する。本実施例のシステ
ムではTVカメラは複数台(TVカメラ1410,TV
カメラ1523,TVカメラ1503,TVカメラ15
43,TVカメラ1420)あり、その中からユーザが
任意に操作したいTVカメラを選択でき、システムはそ
のユーザが選択したTVカメラの左右のTVカメラをパ
ノラマ映像生成に最適な撮影方向、ズーム率に自動制御
する。ただし、最も端に設置されたTVカメラであるT
Vカメラ1410とTVカメラ1420は選択できな
い。本実施例では、例えばユーザが競技場でプレー中の
サッカー選手を撮影する場合、選手に最も近いTVカメ
ラを選択する。そして、ボールがパスされ撮影したい選
手の位置が大きく変わったとき、ユーザは新たに撮影し
たい選手に最も近いTVカメラを選択する。本実施例の
全てのTVカメラはパンとチルトと撮影方向軸回りの回
転と前後左右上下方向とズーム率が制御可能である。
FIG. 14 is an arrangement diagram of a TV camera according to the second embodiment. In the second embodiment, TV cameras are arranged side by side with respect to a long shooting target such as a stadium, and when the user operates the center camera 1503, the left and right TV cameras (left sub Camera 152
3 and the right sub camera 1543) are automatically controlled to a shooting direction and a zoom ratio that can generate a panoramic video without distortion. In the system according to the present embodiment, the panoramic video is obtained by performing live panorama synthesis processing of live video from three cameras in real time and displaying a panoramic video of a moving image. In the system of the present embodiment, a plurality of TV cameras (TV camera 1410, TV camera)
Camera 1523, TV camera 1503, TV camera 15
43, TV camera 1420), the user can arbitrarily select the TV camera that the user wants to operate, and the system sets the left and right TV cameras selected by the user to the optimal shooting direction and zoom ratio for panoramic video generation. Control automatically. However, the TV camera installed at the end is T
V camera 1410 and TV camera 1420 cannot be selected. In this embodiment, for example, when the user shoots a soccer player who is playing at the stadium, the TV camera closest to the player is selected. Then, when the position of the player who wants to photograph is greatly changed by passing the ball, the user selects a TV camera closest to the player who wants to newly photograph. All the TV cameras of this embodiment can control the pan, tilt, rotation around the photographing direction axis, front / rear, left / right and up / down directions and the zoom ratio.

【0097】図15は本実施例のシステム構成図であ
る。
FIG. 15 is a system configuration diagram of the present embodiment.

【0098】本システムは、ユーザがTVカメラのパン
とチルトと撮影方向軸回りの回転と前後左右上下方向が
制御できるメインカメラ部1500と、メインカメラ部
1500で撮影した映像に写っている対象のパースや傾きや
大きさによってTVカメラの撮影パラメータ(パン角と
チルト角と撮影方向軸回りの回転角と前後左右上下移動
距離とズーム率)を制御する左右サブカメラ部(左サブ
カメラ部1520と右サブカメラ部1540)と、メイ
ンカメラ部1500と左右サブカメラ部の映像を比較し
て、左右サブカメラ部の撮影パラメータを計算し、ま
た、メインカメラ部1500と左サブカメラ部1520
と右カメラ部1540で撮影されたライブ映像をパノラ
マ合成処理し表示するパノラマ映像表示部1560と、
メインカメラ部1500と左サブカメラ部1520と右
サブカメラ部1540とパノラマ映像表示部1560と
の間で、映像データや撮影パラメータを通信するネット
ワーク1590とからなる。
This system comprises a main camera unit 1500 which allows the user to control the pan and tilt of the TV camera, rotation around the photographing direction axis, front / rear, left / right and up / down directions.
The shooting parameters of the TV camera (pan angle, tilt angle, rotation angle around the shooting direction axis, front / rear left / right up / down movement distance, and zoom ratio) are controlled according to the perspective, tilt, and size of the object in the video shot at 1500. The left and right sub camera sections (left sub camera section 1520 and right sub camera section 1540) are compared with the images of the main camera section 1500 and the left and right sub camera sections to calculate shooting parameters of the left and right sub camera sections. Section 1500 and left sub camera section 1520
And a panoramic video display unit 1560 that performs panorama synthesis processing on live video captured by the right camera unit 1540 and displays the processed live video.
The main camera unit 1500, the left sub-camera unit 1520, the right sub-camera unit 1540, and the panoramic video display unit 1560 include a network 1590 for communicating video data and shooting parameters.

【0099】メインカメラ部1500は、現場の映像を
撮影するパンとチルトと撮影方向軸回りの回転と前後左
右上下方向とズーム率が制御可能なTVカメラ1503
と、TVカメラ1503に対してパン角,チルト角,ズ
ーム率の指令を出し、TVカメラ103において計測し
た撮影パラメータ(パン角,チルト角,撮影方向軸回り
の回転角,前後左右上下移動距離とズーム率)を受け取
るカメラ制御部1506と、TVカメラ1503からのアナ
ログ映像信号を受け取り、その映像をキャプチャする映
像キャプチャ部1509と、パノラマ映像表示部160
から送信されるユーザによって指示された撮影パラメー
タ(パン角,チルト角,撮影方向軸回りの回転角,前後
左右上下移動距離とズーム率)を受信したり、カメラ制
御部1506で受け取った計測された撮影パラメータをパノ
ラマ映像表示部160に送信したり、映像キャプチャ部
1509でキャプチャした映像データをパノラマ映像表
示部1560に送信したりするカメラ通信部1512
と、メインカメラ部1500の全体の流れを制御するカ
メラ中央制御部1515とからなる。
A main camera section 1500 is a TV camera 1503 capable of controlling pan, tilt, rotation around a shooting direction axis, front / rear, left / right and up / down directions for shooting an image of a site.
And commands for the pan angle, tilt angle, and zoom ratio to the TV camera 1503, and the photographing parameters (pan angle, tilt angle, rotation angle around the photographing direction axis, front / rear left / right and up / down moving distances) measured by the TV camera 103. Camera control unit 1506 for receiving a zoom ratio), a video capture unit 1509 for receiving an analog video signal from the TV camera 1503 and capturing the video, and a panoramic video display unit 160
From the user (pan angle, tilt angle, rotation angle around the shooting direction axis, front / rear left / right up / down movement distance and zoom rate) transmitted by the user, or measured by the camera control unit 1506 A camera communication unit 1512 for transmitting a shooting parameter to the panoramic video display unit 160 and transmitting video data captured by the video capture unit 1509 to the panoramic video display unit 1560.
And a camera central control unit 1515 that controls the overall flow of the main camera unit 1500.

【0100】左サブカメラ部1520は、メインカメラ
部1500と同様な構成で、TVカメラ部1523とカ
メラ制御部1526と、映像キャプチャ部1529と、
カメラ通信部1532と、カメラ中央制御部1535と
からなる。左サブカメラ部1520の各部の機能は、メ
インカメラ部1500の各部の機能と同じである。右サ
ブカメラ部1540も、メインカメラ部1500と同様
な構成で、TVカメラ部1543とカメラ制御部154
6と、映像キャプチャ部1549と、カメラ通信部15
52と、カメラ中央制御部1555とからなる。右サブ
カメラ部1540の各部の機能は、メインカメラ部15
00の各部の機能と同じである。パノラマ映像表示部1
560は、ユーザからの入力を受け付ける入力部(マウ
ス)1563と、メインカメラ部1500と左右サブカ
メラ部(左サブカメラ部1520,右サブカメラ部15
40)で撮影された、それぞれの映像がオーバーラップ
する領域を求めるオーバーラップ領域検出部1572
と、メインカメラ部1500と左右サブカメラ部(左サ
ブカメラ部1520,右サブカメラ部1540)で撮影され
た、それぞれの映像1コマの内の特徴的なブロック、す
なわち映像を16画素×16画素からなるブロックに分
割したときに、その分散値が最も大きくなるブロックを
求める特徴点抽出部1566と、特徴点抽出部1566
で抽出した特徴点を使って、映像中の対象物の大きさや
パースを比較し、比較結果から左右サブカメラ部(左サ
ブカメラ部1520,右サブカメラ部1540)の撮影
パラメータを計算する撮影パラメータ計算部1569
と、メインカメラ部1500と左右サブカメラ部(左サ
ブカメラ部1520,右サブカメラ部1540)から送
られてくる映像データをリアルタイムにパノラマ映像合
成処理するパノラマ映像生成部1575と、パノラマ映
像生成部1575によって生成されたパノラマ映像を表
示する映像表示部(モニタ)1578と、メインカメラ
部1500と左右サブカメラ部(左サブカメラ部152
0,右サブカメラ部1540)から送られてくる映像デ
ータを受信したり、メインカメラ部1500と左右サブ
カメラ部(左サブカメラ部1520,右サブカメラ部1
540)にTVカメラの撮影パラメータを送信したりす
るパノラマ映像表示通信部1581と、パノラマ映像表
示部の全体の流れを制御するパノラマ映像表示中央制御
部1584とからなる。
The left sub camera unit 1520 has the same configuration as the main camera unit 1500, and includes a TV camera unit 1523, a camera control unit 1526, a video capture unit 1529,
It comprises a camera communication unit 1532 and a camera central control unit 1535. The function of each unit of the left sub camera unit 1520 is the same as the function of each unit of the main camera unit 1500. The right sub camera unit 1540 has the same configuration as the main camera unit 1500, and includes a TV camera unit 1543 and a camera control unit 154.
6, a video capture unit 1549, and a camera communication unit 15
52, and a camera central control unit 1555. The function of each unit of the right sub camera unit 1540 is
00 has the same function as each section. Panoramic video display 1
Reference numeral 560 denotes an input unit (mouse) 1563 that receives an input from a user, a main camera unit 1500, and left and right sub camera units (a left sub camera unit 1520 and a right sub camera unit 15).
An overlap area detection unit 1572 that obtains an area where the respective images captured in 40) overlap each other.
And a characteristic block in one frame of each image captured by the main camera unit 1500 and the left and right sub camera units (the left sub camera unit 1520 and the right sub camera unit 1540), that is, the image is 16 pixels × 16 pixels A feature point extracting unit 1566 for obtaining a block having the largest variance when divided into blocks each including
Using the feature points extracted in step 1 to compare the size and perspective of the object in the video, and calculate the shooting parameters of the left and right sub-camera units (left sub-camera unit 1520, right sub-camera unit 1540) from the comparison result Calculation unit 1569
A panorama video generation unit 1575 that performs real-time panorama video synthesis processing on video data sent from the main camera unit 1500 and the left and right sub camera units (the left sub camera unit 1520 and the right sub camera unit 1540); An image display unit (monitor) 1578 that displays a panoramic image generated by the 1575, a main camera unit 1500, and left and right sub camera units (left sub camera unit 152)
0, the right sub-camera unit 1540), the main camera unit 1500 and the left and right sub-camera units (the left sub-camera unit 1520, the right sub-camera unit 1).
540), a panorama video display communication unit 1581 for transmitting the shooting parameters of the TV camera, and a panorama video display central control unit 1584 for controlling the overall flow of the panorama video display unit.

【0101】図16から図19は第2の実施例のフロー
チャートである。図17から図19はパノラマ映像表示
部1560側のフローチャートであり、図19はメイン
カメラ部1500と左サブカメラ部1520と右サブカ
メラ部1540側のフローチャートである。
FIGS. 16 to 19 are flowcharts of the second embodiment. 17 to 19 are flowcharts on the side of the panoramic video display unit 1560, and FIG. 19 is a flowchart on the side of the main camera unit 1500, the left sub camera unit 1520, and the right sub camera unit 1540.

【0102】まずはじめにパノラマ映像表示部1560
側で、ステップ1600で処理を開始しステップ160
5に進む。ステップ1605ではユーザは多数あるTV
カメラの中からユーザが操作したいTVカメラを選択す
る。ユーザがTVカメラを選択する場合には、モニタ1
578に表示されているカメラ配置図の中から所望のT
Vカメラをクリックする。カメラ配置図にはTVカメラ
の現在の位置と撮影方向が表示される。
First, a panoramic image display unit 1560
On the side, the process starts at step 1600 and proceeds to step 160
Go to 5. In step 1605, the user has many TVs
The user selects a TV camera to operate from the cameras. When the user selects a TV camera, the monitor 1
The desired T from the camera layout diagram displayed at 578
Click the V camera. The current position and shooting direction of the TV camera are displayed on the camera layout.

【0103】ユーザがカメラを選択するとステップ16
10において、パノラマ映像表示中央制御部1584に
ユーザが指定したカメラをメインカメラとして登録し、
ユーザが指定したカメラの左側に位置するカメラを左サ
ブカメラとして登録し、ユーザが指定したカメラの右側
に位置するカメラを右サブカメラとして登録する。デフ
ォルト状態(ユーザからの指定がない初期状態)ではメ
インカメラを最も中央に位置するカメラとし、その左右
に位置するカメラを左右サブカメラとする。
When the user selects a camera, step 16
In 10, the camera designated by the user is registered as the main camera in the panorama image display central control unit 1584,
A camera located on the left side of the camera designated by the user is registered as a left sub camera, and a camera located on the right side of the camera designated by the user is registered as a right sub camera. In a default state (an initial state in which there is no designation from the user), the main camera is the camera located at the center, and the cameras located on the left and right thereof are the left and right sub cameras.

【0104】次にステップ1615では、パノラマ映像
表示通信部1581からメインカメラ部1500に初期
姿勢の撮影パラメータ(パン角,チルト角,撮影方向軸
回りの回転角、前後左右上下移動距離,ズーム率)を送
信する。
Next, in step 1615, the panorama image display / communication section 1581 gives the main camera section 1500 shooting parameters of the initial posture (pan angle, tilt angle, rotation angle around the shooting direction axis, front / rear left / right up / down moving distance, zoom ratio). Send

【0105】メインカメラ部1500側では、ステップ
1905でカメラ通信部1512において撮影パラメー
タを受信し、次にステップ1910でカメラ制御部15
06において受信した撮影パラメータでTVカメラ15
03を制御し、そしてステップ1915でTVカメラ1
503で計測した制御後の撮影パラメータをカメラ通信
部1512からパノラマ映像表示部1560に送信す
る。左サブカメラ部1520でも同様に、ステップ1905
でカメラ通信部1532において撮影パラメータを受信
し、次にステップ1910でカメラ制御部1526にお
いて受信した撮影パラメータでTVカメラ1523を制
御し、そしてステップ1915でTVカメラ1523で
計測した制御後の撮影パラメータをカメラ通信部153
2からパノラマ映像表示部1560に送信する。右サブ
カメラ部1540でも同様に、ステップ1905でカメ
ラ通信部1532において撮影パラメータを受信し、次
にステップ1910でカメラ制御部1546において受
信した撮影パラメータでTVカメラ1543を制御し、
そしてステップ1915でTVカメラ1543で計測し
た制御後の撮影パラメータをカメラ通信部1552から
パノラマ映像表示部1560に送信する。
On the main camera unit 1500 side, the photographing parameters are received by the camera communication unit 1512 in step 1905, and then the camera control unit 1512 in step 1910.
06 and the TV camera 15
03 and TV camera 1 in step 1915
The camera parameters after control measured in step 503 are transmitted from the camera communication unit 1512 to the panorama image display unit 1560. Similarly, in the left sub camera unit 1520, step 1905
In step 1910, the camera parameters are received in the camera communication unit 1532, then in step 1910, the TV camera 1523 is controlled by the shooting parameters received in the camera control unit 1526, and in step 1915, the controlled shooting parameters measured by the TV camera 1523 are used. Camera communication unit 153
2 to the panorama video display unit 1560. Similarly, the right sub-camera unit 1540 receives the shooting parameters in the camera communication unit 1532 in step 1905, and then controls the TV camera 1543 with the shooting parameters received in the camera control unit 1546 in step 1910.
Then, in step 1915, the camera parameters after control measured by the TV camera 1543 are transmitted from the camera communication unit 1552 to the panoramic video display unit 1560.

【0106】パノラマ映像表示部1560側ではステッ
プ1620でパノラマ映像表示通信部1581で、メイ
ンカメラ部1500と左サブカメラ部1520と右サブ
カメラ部1540から送られる撮影パラメータを受信
し、ステップ1625に進む。ステップ1625では左
サブカメラ部1520の撮影方向の補正処理が終了した
かどうかを示す左カメラ撮影パラメータ計算終了フラグ
=0に設定し、右サブカメラ部1540の撮影方向の補
正処理が終了したかどうかを示す右カメラ撮影パラメー
タ計算終了フラグ=0に設定する。
In step 1620, the panorama image display unit 1560 receives the shooting parameters sent from the main camera unit 1500, the left sub camera unit 1520, and the right sub camera unit 1540 in the panorama image display communication unit 1581, and proceeds to step 1625. . In step 1625, a left camera shooting parameter calculation end flag indicating whether or not the shooting process of the left sub-camera unit 1520 has been completed is set to 0, and whether or not the shooting process of the right sub-camera unit 1540 has been completed is determined. Is set to the right camera shooting parameter calculation end flag = 0.

【0107】次にステップ1630では、パノラマ映像
表示通信部1581においてメインカメラ部1500に
映像送信要求を送信する。メインカメラ部1500では
ステップ1920においてパノラマ映像表示通信部15
81からの映像送信要求をカメラ通信部1512で受信
する。そして、ステップ1925において映像キャプチ
ャ部1509でTVカメラ1503の映像を1コマキャ
プチャし、ステップ1930においてカメラ通信部15
12から映像1コマを送信する。
Next, at step 1630, the panoramic video display communication section 1581 transmits a video transmission request to the main camera section 1500. In the main camera section 1500, in step 1920, the panoramic image display communication section 15
The camera communication unit 1512 receives the video transmission request from 81. Then, in step 1925, the video capture unit 1509 captures one frame of the video of the TV camera 1503, and in step 1930, the camera communication unit 15
12 transmits one frame of video.

【0108】次にパノラマ映像表示部1560側におい
てステップ1635でメインカメラ部1500から送信
される映像1コマをパノラマ映像表示通信部1581で
受信する。
Next, in step 1635, the panorama image display communication section 1581 receives one frame of image transmitted from the main camera section 1500 in the panorama image display section 1560.

【0109】次にステップ1640からステップ168
5までは左サブカメラ部1520の撮影方向の補正処理
を行う。
Next, steps 1640 to 168
Up to 5, correction processing of the shooting direction of the left sub-camera unit 1520 is performed.

【0110】ステップ1640で、パノラマ映像表示中
央制御部1584において、左サブカメラ部1520の
撮影方向の補正処理が終了したことを示す左カメラ撮影
パラメータ計算終了フラグ=1かどうかを判別する。撮
影パラメータ計算終了フラグ=0のときは補正処理が終
了していないことを示す。左カメラ撮影パラメータ計算
終了フラグ=1のときステップ1700に進み、左カメ
ラ撮影パラメータ計算終了フラグ=0のときステップ1
645に進む。
At step 1640, panoramic image display central control section 1584 determines whether or not the left camera shooting parameter calculation end flag = 1 indicating that the correction processing of the shooting direction of left sub camera section 1520 has been completed. When the photographing parameter calculation end flag = 0, it indicates that the correction processing has not been completed. If the left camera shooting parameter calculation end flag = 1, proceed to step 1700; if the left camera shooting parameter calculation end flag = 0, go to step 1700.
Proceed to 645.

【0111】次にステップ1645ではパノラマ映像表
示通信部1581において左サブカメラ部1520に映
像送信要求を送信し、ステップ1650において左サブ
カメラ部1520から送信される映像1コマを受信す
る。
Next, in step 1645, the panoramic image display communication section 1581 transmits a video transmission request to the left sub camera section 1520, and in step 1650, receives one frame of video transmitted from the left sub camera section 1520.

【0112】次にステップ1655では、オーバーラッ
プ領域検出部1572においてメインカメラ部1500
から送られてきた映像と、左サブカメラ部1520から
送られてきた映像とのオーバーラップ領域を検出する。
オーバーラップ領域の検出方法は、第1の実施例で説明
した通りである。
Next, at step 1655, the main camera section 1500 is detected by the overlap area detecting section 1572.
And an overlap area between the video transmitted from the sub-camera unit 1520 and the video transmitted from the left sub-camera unit 1520 is detected.
The method of detecting the overlap area is as described in the first embodiment.

【0113】次にステップ1660では特徴点抽出部1
566において、メインカメラ部1500から送られて
きた映像のオーバーラップ領域から特徴矩形を検出し、
左サブカメラ部1520から送られてきた映像オーバー
ラップ領域から対応矩形を抽出する。特徴矩形と対応矩
形の抽出方法は第1の実施例で説明した通りである。
Next, at step 1660, the feature point extracting unit 1
At 566, a feature rectangle is detected from the overlap area of the video sent from the main camera unit 1500,
A corresponding rectangle is extracted from the video overlap area sent from the left sub camera unit 1520. The method of extracting the feature rectangle and the corresponding rectangle is as described in the first embodiment.

【0114】次にステップ1665で、撮影パラメータ
計算部1569において左サブカメラ部1520の撮影
パラメータを計算する。ここで撮影パラメータの計算手
順を説明する。図20から図22は撮影パラメータの計
算処理のフローチャートを示した図である。
Next, at step 1665, a photographing parameter of the left sub camera unit 1520 is calculated by the photographing parameter calculating unit 1569. Here, the calculation procedure of the imaging parameters will be described. FIG. 20 to FIG. 22 are flowcharts showing the calculation processing of the photographing parameters.

【0115】まずはじめにステップ2000において撮
影パラメータ処理を開始する。そしてステップ2005
においてTVカメラの左右方向,上下方向の移動制御が
終了したかどうかを判別する移動補正フラグを0に設定
する。この移動補正フラグが3のときは左右方向,上下
方向の移動制御が終了したことを示し、それ以外の値の
ときには移動制御が終了していないことを示す。
First, in step 2000, photographing parameter processing is started. And step 2005
In, the movement correction flag for determining whether or not the movement control of the TV camera in the left-right direction and the up-down direction is completed is set to 0. When the movement correction flag is 3, it indicates that the movement control in the left-right direction and the up-down direction has been completed, and when the value is any other value, it indicates that the movement control has not been completed.

【0116】ステップ2010からステップ2060ま
ではオーバーラップ領域の位置と大きさから最適なTV
カメラの左右方向と上下方向の移動位置を計算する処理
である。ここで、TVカメラの移動位置を計算する処理
について説明する。図23はメインカメラ部1500で
キャプチャした映像2300と右サブカメラ部1540でキ
ャプチャした映像2310がオーバーラップしている様
子である。図23のようにオーバーラップ領域2320
の位置が右サブカメラ映像2310の上方にある場合に
はカメラを上方向に移動させ、下方にある場合にはカメ
ラを下方向に移動させる。また、オーバーラップ領域2
330の横方向の長さ2330に対する右サブカメラ部
1540の横方向の長さ2340の比が大きい場合(重
なり部分が大きい)にはメインカメラから遠ざかる方向
にカメラをスライドさせ、比が大きい場合(重なり部分
が小さい)にはメインカメラに近づく方向にカメラをス
ライドさせる。左サブカメラ部1520の映像について
も同様である。
In steps 2010 to 2060, the optimal TV is set based on the position and size of the overlap area.
This is a process for calculating the movement position of the camera in the horizontal direction and the vertical direction. Here, the process of calculating the moving position of the TV camera will be described. FIG. 23 shows a state in which an image 2300 captured by the main camera unit 1500 and an image 2310 captured by the right sub camera unit 1540 overlap. As shown in FIG.
When the position is above the right sub camera image 2310, the camera is moved upward, and when it is below, the camera is moved downward. Also, overlap area 2
When the ratio of the horizontal length 2340 of the right sub camera unit 1540 to the horizontal length 2330 of 330 is large (the overlapping portion is large), the camera is slid in the direction away from the main camera, and the ratio is large ( (The overlapping part is small.) Slide the camera toward the main camera. The same applies to the image of the left sub camera unit 1520.

【0117】ステップ2010では、メインカメラ部映
像と左サブカメラ部映像のオーバーラップ領域の横方向
の重なりが30%未満であるか否かを判別し、30%未
満であった場合にはステップ2015に進み左サブカメ
ラ部1520の横方向の移動補正量をメインカメラに近
づく方向に50cmとしてステップ2025に進み、そう
でない場合にはステップ2020で移動補正フラグを1
加算させステップ2025に進む。
In step 2010, it is determined whether or not the overlap in the horizontal direction of the overlap area between the main camera section image and the left sub camera section image is less than 30%. The process proceeds to step 2025 in which the amount of horizontal movement correction of the left sub-camera unit 1520 is set to 50 cm in the direction approaching the main camera, and if not, the movement correction flag is set to 1 in step 2020.
Then, the process proceeds to step 2025.

【0118】ステップ2025では、メインカメラ部映
像と左サブカメラ部映像のオーバーラップ領域の横方向
の重なりが50%以上であるか否かを判別し、50%以
上であった場合にはステップ2030に進み左サブカメ
ラ部1520の横方向の移動補正量をメインカメラから
遠ざかる方向に50cmとしてステップ2040に進み、
そうでない場合にはステップ2035で移動補正フラグ
を1加算させステップ2040に進む。
In step 2025, it is determined whether or not the overlap in the horizontal direction of the overlap area between the main camera section video and the left sub camera section video is 50% or more. If the overlap is 50% or more, step 2030 is performed. The horizontal movement correction amount of the left sub camera unit 1520 is set to 50 cm in a direction away from the main camera, and the process proceeds to step 2040.
Otherwise, at step 2035, the movement correction flag is incremented by 1, and the routine proceeds to step 2040.

【0119】ステップ2040では、オーバーラップ領
域の縦方向の重なり部分が90%以上あるか否かを判別
し、90%以上の場合にはステップ2050に進み移動
補正フラグを1加算させ、その後ステップ2100に進
み、90%未満の場合にはステップ2045に進む。ス
テップ2045ではオーバーラップ領域の位置を判定
し、オーバーラップ領域が右カメラ映像の下方にある場
合にはステップ2055に進み左サブカメラ部1520
の上下方向の補正移動量を上方向に50cmとしてステッ
プ2100に進み、下方にある場合にはステップ206
0に進み左サブカメラ部1520の上下方向の補正移動
量を下方向に50cmとしてステップ2100に進む。
In step 2040, it is determined whether or not the vertical overlapping portion of the overlap area is 90% or more. If it is 90% or more, the flow advances to step 2050 to increment the movement correction flag by one. If it is less than 90%, the process proceeds to step 2045. In step 2045, the position of the overlap area is determined. If the overlap area is below the right camera image, the process proceeds to step 2055 and the left sub camera unit 1520
The upward / downward correction movement amount is set to 50 cm in the upward direction, and the process proceeds to step 2100.
The process proceeds to 0, and the vertical movement of the left sub-camera unit 1520 is set to 50 cm in the downward direction.

【0120】ステップ2100では移動補正フラグが3
であるか否かを判別し、移動補正フラグが3である場合
(カメラの移動補正制御が終了した場合)ステップ22
50に進み、移動補正フラグが3未満である場合(カメ
ラの移動補正制御中の場合)にはステップ2105に進
み撮影方向補正フラグを0に設定しステップ2110に
進む。撮影方向補正フラグはカメラのパン角,チルト
角,撮影方向軸回りの回転角,ズーム率の補正処理が終
了したかどうかを判別するためのフラグで、撮影方向補
正フラグが4になったときに撮影方向の補正処理が終了
したことを示す。ステップ2110からステップ214
5までは特徴矩形と対応矩形のパースと大きさと傾きか
らTVカメラのパン角,チルト角,撮影方向軸回りの回
転角,ズーム率を計算する処理である。
In step 2100, the movement correction flag is set to 3
Is determined, and when the movement correction flag is 3 (when the movement correction control of the camera is completed), step 22 is performed.
The process proceeds to step 50, and if the movement correction flag is less than 3 (if the camera is under the movement correction control), the process proceeds to step 2105, the shooting direction correction flag is set to 0, and the process proceeds to step 2110. The shooting direction correction flag is a flag for determining whether or not the correction processing of the camera's pan angle, tilt angle, rotation angle around the shooting direction axis, and zoom ratio has been completed. Indicates that the correction processing of the shooting direction has been completed. Step 2110 to step 214
Steps up to 5 are processes for calculating the pan angle, the tilt angle, the rotation angle around the shooting direction axis, and the zoom ratio of the TV camera from the perspective, size, and inclination of the feature rectangle and the corresponding rectangle.

【0121】ここで、撮影パラメータ計算処理について
説明する。
Here, the photographing parameter calculation processing will be described.

【0122】図24は、特徴矩形と対応矩形のパース
(歪み具合)と、その大きさからパン角,チルト角,ズ
ーム率を求める方法を示した図である。
FIG. 24 is a diagram showing a perspective (distortion degree) of a feature rectangle and a corresponding rectangle, and a method of obtaining a pan angle, a tilt angle, and a zoom ratio from the size.

【0123】まず始めにパン角の補正方法について説明
する。ここで特徴矩形1300は正方形であると仮定す
る。パースの影響で左辺と右辺が平行な台形状になって
いる対応領域1310を特徴矩形と同じ形(正方形)に
するために左右サブカメラ部のTVカメラのパン角を制
御する。すなわち、左右サブカメラ部の特徴矩形1300の
右辺の長さと左辺の長さの比(パース(歪み具合))と
左右サブカメラ部の対応矩形1310の右辺の長さと左
辺の長さの比(パース(歪み具合))とが同じになるよ
うにパン角を制御する。
First, a method of correcting the pan angle will be described. Here, it is assumed that feature rectangle 1300 is a square. The pan angles of the TV cameras of the left and right sub-camera units are controlled so that the trapezoidal corresponding region 1310 whose left side and right side are parallel to each other due to the perspective makes the same shape (square) as the characteristic rectangle. In other words, the ratio (perspective (degree of distortion)) of the length of the right side and the length of the left side of the characteristic rectangle 1300 of the left and right sub camera unit and the ratio of the length of the right side and the length of the left side of the corresponding rectangle 1310 of the left and right sub camera unit (parse (Distortion degree)) is controlled to be the same as the pan angle.

【0124】次にチルト角の補正方法について説明す
る。パースの影響で上辺と下辺が平行な台形状になって
いる対応領域1320を特徴矩形と同じ形(正方形)に
するために左右サブカメラ部のTVカメラのチルト角を
制御する。すなわちメインカメラ部の特徴矩形1300
の上辺の長さと下辺の長さの比(パース(歪み具合))
と左右サブカメラ部の対応矩形1320の上辺の長さと
下辺の長さの比(パース(歪み具合))とが同じになる
ようにチルト角を制御する。
Next, a method of correcting the tilt angle will be described. The tilt angles of the TV cameras of the left and right sub-camera units are controlled so that the trapezoidal corresponding area 1320 whose upper side and lower side are parallel due to the perspective is made the same shape (square) as the characteristic rectangle. That is, the characteristic rectangle 1300 of the main camera unit
Ratio of the length of the upper side to the length of the lower side (Perspective (degree of distortion))
The tilt angle is controlled such that the ratio of the length of the upper side and the length of the lower side (perspective (degree of distortion)) of the corresponding rectangle 1320 of the left and right sub camera units is the same.

【0125】次にズーム率の補正について説明する。T
Vカメラと撮影対象までの距離が異なるために特徴矩形
と大きさが異なっている対応矩形1330を特徴矩形と
同じ大きさにするために左右サブカメラ部のTVカメラ
のズーム率を制御する。すなわちメインカメラ部の特徴
矩形1300の周囲の長さと左右サブカメラ部の対応矩
形1320の周囲の長さとが同じになるようにズーム率
を制御する。
Next, the correction of the zoom ratio will be described. T
The zoom ratio of the TV cameras in the left and right sub-camera units is controlled to make the corresponding rectangle 1330 having a different size from the feature rectangle because the distance between the V camera and the shooting target is different from the feature rectangle. That is, the zoom rate is controlled so that the length around the characteristic rectangle 1300 of the main camera unit and the length around the corresponding rectangle 1320 of the left and right sub camera units are the same.

【0126】次にカメラの撮影方向軸回りの回転角の補
正について説明する。メインカメラと左右サブカメラの
TVカメラ設置位置がずれていると特徴矩形1300と
対応矩形1340の傾きが異なってしまう。そこで特徴
矩形1300と対応矩形1340の傾きを等しくするために
左右サブカメラ部のTVカメラの撮影方向軸回りの回転
角を制御する。すなわちメインカメラ部の特徴矩形13
00の傾きと左右サブカメラ部の対応矩形1320の傾
きが同じになるように撮影方向軸回りの回転角を制御す
る。
Next, the correction of the rotation angle of the camera about the photographing direction axis will be described. If the TV camera installation positions of the main camera and the left and right sub cameras are shifted, the inclination of the characteristic rectangle 1300 and the corresponding rectangle 1340 will be different. Therefore, in order to equalize the inclination of the feature rectangle 1300 and the corresponding rectangle 1340, the rotation angles of the left and right sub camera units around the shooting direction axis of the TV camera are controlled. That is, the characteristic rectangle 13 of the main camera unit
The rotation angle around the photographing direction axis is controlled so that the inclination of 00 and the inclination of the corresponding rectangle 1320 of the left and right sub camera units are the same.

【0127】ステップ2110では、特徴矩形と対応矩
形のパース(歪み具合)が等しいかどうかを判別するた
め、特徴矩形の(左辺の長さ/右辺の長さ)と対応矩形
の(左辺の長さ/右辺の長さ)の差の絶対値がある一定
量である0.1 未満か否かを判別し、0.1 未満である
場合にはステップ2210に進み、撮影方向補正フラグ
の値を1加算してからステップ2135に進む。そうで
ない場合はステップ2115に進む。
In step 2110, to determine whether the parse (degree of distortion) of the feature rectangle and the corresponding rectangle are equal, the (length of left side / length of right side) of the feature rectangle and the (length of left side of the corresponding rectangle) are determined. It is determined whether or not the absolute value of the difference of (/ length of the right side) is less than a certain amount of 0.1, and if it is less than 0.1, the process proceeds to step 2210, and the value of the shooting direction correction flag is set to 1 After the addition, the process proceeds to step 2135. Otherwise, go to step 2115.

【0128】ステップ2115では特徴矩形の(左辺の
長さ/右辺の長さ)が対応矩形の(左辺の長さ/右辺の
長さ)より大きいか否かを判別し、大きい場合にはステ
ップ2125に進み、左サブカメラ部1520の補正パ
ン角をメインカメラに近づく方向に1度とし、ステップ
2135に進む。小さい場合にはステップ2130に進
み、左サブカメラ部1520の補正パン角をメインカメ
ラから遠ざかる方向に1度としステップ2135に進
む。
In step 2115, it is determined whether or not the characteristic rectangle (left side length / right side length) is larger than the corresponding rectangle (left side length / right side length). Then, the correction pan angle of the left sub camera unit 1520 is set to 1 degree in a direction approaching the main camera, and the process proceeds to step 2135. If it is smaller, the process proceeds to step 2130, the correction pan angle of the left sub-camera unit 1520 is set to 1 degree in a direction away from the main camera, and the process proceeds to step 2135.

【0129】ステップ2135では、特徴矩形と対応矩
形のパース(歪み具合)が等しいかどうかを判別するた
め、特徴矩形の(上辺の長さ/下辺の長さ)と対応矩形
の(上辺の長さ/下辺の長さ)の差の絶対値がある一定
量である0.1 未満か否かを判別し、0.1 未満である
場合にはステップ2145に進み、撮影方向補正フラグ
の値を1加算してからステップ2200に進む。そうで
ない場合はステップ2140に進む。
In step 2135, in order to determine whether the parse (degree of distortion) of the feature rectangle and the corresponding rectangle is equal, the (length of the upper side / length of the lower side) of the feature rectangle and the (length of the upper side) of the corresponding rectangle are determined. It is determined whether or not the absolute value of the difference of (/ length of the lower side) is less than a certain amount of 0.1, and if it is less than 0.1, the process proceeds to step 2145 to set the value of the shooting direction correction flag to 1 After the addition, the process proceeds to step 2200. Otherwise, go to step 2140.

【0130】ステップ2140では特徴矩形の(上辺の
長さ/下辺の長さ)が対応矩形の(上辺の長さ/下辺の
長さ)より大きいか否かを判別し、大きい場合にはステ
ップ2150に進み、左サブカメラ部1520の補正チ
ルト角を上方向に1度とし、ステップ2200に進む。
小さい場合にはステップ2155に進み、左サブカメラ
部1520の補正チルト角を下方向に1度としステップ
2200に進む。
In step 2140, it is determined whether or not (length of the upper side / length of the lower side) of the characteristic rectangle is larger than (length of the upper side / length of the lower side) of the corresponding rectangle. Then, the correction tilt angle of the left sub-camera unit 1520 is set to 1 degree in the upward direction, and the flow proceeds to step 2200.
If it is smaller, the process proceeds to step 2155, in which the correction tilt angle of the left sub-camera unit 1520 is set to 1 degree downward, and the process proceeds to step 2200.

【0131】ステップ2200では、特徴矩形と対応矩
形の大きさが等しいかどうかを判別するため、特徴矩形
の周囲の長さ(上辺の長さ+下辺の長さ+左辺の長さ+
右辺の長さ)と対応矩形の周囲の長さ(上辺の長さ+下
辺の長さ+左辺の長さ+右辺の長さ)の差の絶対値があ
る一定量1未満か否かを判別し、1未満である場合には
ステップ2210に進み、撮影方向補正フラグの値を1
加算してからステップ2225に進む。そうでない場合
はステップ2205に進む。
In step 2200, to determine whether the size of the feature rectangle is equal to the size of the corresponding rectangle, the length around the feature rectangle (the length of the upper side + the length of the lower side + the length of the left side +
Determines whether the absolute value of the difference between the length of the corresponding rectangle and the length of the periphery of the corresponding rectangle (length of the upper side + length of the lower side + length of the left side + length of the right side) is smaller than a certain amount 1 If it is less than 1, the process proceeds to step 2210, and the value of the shooting direction correction flag is set to 1
After the addition, the process proceeds to step 2225. Otherwise, go to step 2205.

【0132】ステップ2205では特徴矩形の周囲の長
さ(上辺の長さ+下辺の長さ+左辺の長さ+右辺の長
さ)が対応矩形の周囲の長さ(上辺の長さ+下辺の長さ
+左辺の長さ+右辺の長さ)より大きいか否かを判別
し、大きい場合にはステップ2215に進み、左サブカメラ
部1520の補正ズーム量を−10%(広角)とし、ス
テップ2225に進む。小さい場合にはステップ222
0に進み、左サブカメラ部1520の補正ズーム量を+
10%(望遠)としステップ2225に進む。
In step 2205, the perimeter of the feature rectangle (the length of the upper side + the length of the lower side + the length of the left side + the length of the right side) is determined by the perimeter of the corresponding rectangle (the length of the upper side + the length of the lower side). Length + left side length + right side length). If it is larger, the process proceeds to step 2215, where the correction zoom amount of the left sub camera unit 1520 is set to -10% (wide angle), and Proceed to 2225. If smaller, step 222
0, and increases the correction zoom amount of the left sub camera unit 1520 by +
It is set to 10% (telephoto) and the process proceeds to step 2225.

【0133】ステップ2225では特徴矩形の傾きと対
応矩形の傾きが等しいかどうかを判別するため、特徴矩
形の左辺の傾きと対応矩形の左辺の傾きの差の絶対値が
ある一定量1度未満であるか否かを判別し、1度未満で
ある場合にはステップ2235に進み撮影方向補正フラグの
値を1加算してからステップ2250に進む。そうでな
い場合はステップ2230に進む。
In step 2225, it is determined whether or not the inclination of the characteristic rectangle is equal to the inclination of the corresponding rectangle. Therefore, when the absolute value of the difference between the inclination of the left side of the characteristic rectangle and the inclination of the left side of the corresponding rectangle is smaller than a certain amount of less than 1 degree. It is determined whether or not there is, and if it is less than 1 degree, the process proceeds to step 2235, and the value of the shooting direction correction flag is added by 1, and then the process proceeds to step 2250. Otherwise, go to step 2230.

【0134】ステップ2230では対応矩形の左辺が特
徴矩形の左辺に対し時計回り方向に傾いている場合、ス
テップ2240に進み左サブカメラ部1520の撮影方
向軸回りの回転角に関する補正量を反時計回り方向に1
度としステップ2250に進み、反時計回り方向に傾い
ている場合、ステップ2245に進み左サブカメラ部1
520の撮影方向軸回りの回転角に関する補正量を時計
回り方向に1度としステップ2250に進む。
In step 2230, if the left side of the corresponding rectangle is inclined clockwise with respect to the left side of the feature rectangle, the flow advances to step 2240 to correct the amount of correction for the rotation angle of the left sub-camera unit 1520 about the shooting direction axis counterclockwise. 1 in direction
In step 2250, if the camera is tilted counterclockwise, the flow proceeds to step 2245, and the left sub camera unit 1
The correction amount related to the rotation angle about the shooting direction axis at 520 is set to 1 degree in the clockwise direction, and the process proceeds to step 2250.

【0135】ステップ2250では撮影パラメータ計算
処理が終了したかどうかを判別するため、移動補正フラ
グ=3かつ撮影方向補正フラグ=4であるか否かを判別
し、移動補正フラグ=3かつ撮影方向補正フラグ=4で
ある場合にはステップ2255に進み補正終了フラグ=1と
し、そうでない場合にはステップ2260に進み補正終
了フラグ=0とする。そしてステップ2265で次の処
理に進む。
In step 2250, in order to determine whether or not the photographing parameter calculation processing has been completed, it is determined whether or not the movement correction flag = 3 and the photographing direction correction flag = 4. If the flag is 4, the flow advances to step 2255 to set the correction end flag = 1, and if not, the flow advances to step 2260 to set the correction end flag = 0. Then, in step 2265, the process proceeds to the next process.

【0136】以上が左サブカメラ部1520の撮影パラ
メータ計算処理である。
The above is the photographing parameter calculation processing of the left sub camera unit 1520.

【0137】次にステップ1670において、パノラマ
撮影パラメータ計算処理が終了したかどうかを判別する
ために計算終了フラグが1であるか否かを判別し、1で
ある場合にはステップ1685に進み、左カメラ撮影パ
ラメータ計算終了フラグを1に設定しステップ1700
に進む、1でない場合にはステップ1675に進み左サ
ブカメラ部1520に対してステップ1665で計算し
た撮影パラメータを送信し、ステップ1680において
左サブカメラ部1520からの撮影パラメータを受信す
る。
Next, in step 1670, it is determined whether or not the calculation end flag is 1 in order to determine whether or not the panorama photographing parameter calculation processing has been completed. Step 1700: Set camera photographing parameter calculation end flag to 1
If not 1, the process proceeds to step 1675, where the photographing parameters calculated in step 1665 are transmitted to the left sub-camera unit 1520, and the photographing parameters from the left sub-camera unit 1520 are received in step 1680.

【0138】次にステップ1700からステップ174
5までは右サブカメラ部1540の撮影方向の補正処理
を行う。
Next, steps 1700 to 174
Up to 5, correction processing of the photographing direction of the right sub camera unit 1540 is performed.

【0139】ステップ1700で、パノラマ映像表示中
央制御部1584において、右サブカメラ部1540の
撮影方向の補正処理が終了したことを示す右カメラ撮影
パラメータ計算終了フラグ=1かどうかを判別する。右
カメラ撮影パラメータ計算終了フラグ=0のときは補正
処理が終了していないことを示す。右カメラ撮影パラメ
ータ計算終了フラグ=1のときステップ1750に進
み、左カメラ撮影パラメータ計算終了フラグ=0のとき
ステップ1705に進む。
In step 1700, the panoramic image display central control unit 1584 determines whether or not the right camera shooting parameter calculation end flag = 1 indicating that the correction processing of the right sub camera unit 1540 in the shooting direction has ended. When the right camera shooting parameter calculation end flag = 0, it indicates that the correction process has not been completed. When the right camera shooting parameter calculation end flag = 1, the process proceeds to step 1750, and when the left camera shooting parameter calculation end flag = 0, the process proceeds to step 1705.

【0140】次にステップ1705ではパノラマ映像表
示通信部1581において右サブカメラ部1540に映
像送信要求を送信し、ステップ1710において右サブ
カメラ部1540から送信される映像1コマを受信す
る。
Next, in step 1705, the panoramic image display communication section 1581 transmits a video transmission request to the right sub camera section 1540, and in step 1710, receives one frame of video transmitted from the right sub camera section 1540.

【0141】次にステップ1715では、オーバーラッ
プ領域検出部1572においてメインカメラ部1500
から送られてきた映像と、右サブカメラ部1540から
送られてきた映像とのオーバーラップ領域を検出する。
オーバーラップ領域の検出方法は、第1の実施例で説明
した通りである。
Next, at step 1715, the overlap area detection section 1572 causes the main camera section 1500 to operate.
And an overlap area between the image transmitted from the sub camera unit 1540 and the image transmitted from the right sub camera unit 1540 is detected.
The method of detecting the overlap area is as described in the first embodiment.

【0142】次にステップ1720では特徴点抽出部1
566において、メインカメラ部1500から送られて
きた映像のオーバーラップ領域から特徴矩形を検出し、
右サブカメラ部1540から送られてきた映像オーバー
ラップ領域から対応矩形を抽出する。特徴矩形と対応矩
形の抽出方法は第1の実施例で説明した通りである。
Next, at step 1720, the feature point extracting unit 1
At 566, a feature rectangle is detected from the overlap area of the video sent from the main camera unit 1500,
A corresponding rectangle is extracted from the video overlap area sent from the right sub camera unit 1540. The method of extracting the feature rectangle and the corresponding rectangle is as described in the first embodiment.

【0143】次にステップ1665で、撮影パラメータ
計算部1569において右サブカメラ部1540の撮影
パラメータを計算する。撮影パラメータ計算処理はステ
ップ1665で説明した通りである。
Next, at step 1665, a photographing parameter of the right sub-camera unit 1540 is calculated by the photographing parameter calculating unit 1569. The shooting parameter calculation processing is as described in step 1665.

【0144】次にステップ1730において、パノラマ
撮影パラメータ計算処理が終了したかどうかを判別する
ために計算終了フラグが1であるか否かを判別し、1で
ある場合にはステップ1735に進み、右カメラ撮影パ
ラメータ計算終了フラグを1に設定しステップ1750
に進む、1でない場合にはステップ1740に進み右サ
ブカメラ部1540に対してステップ1725で計算し
た撮影パラメータを送信し、ステップ1745において
右サブカメラ部1540からの撮影パラメータを受信す
る。
Next, at step 1730, it is determined whether or not the calculation end flag is 1 in order to determine whether or not the panorama shooting parameter calculation processing has been completed. Step 1750 sets the camera photographing parameter calculation end flag to 1
If not 1, the process proceeds to step 1740 to transmit the photographing parameters calculated in step 1725 to the right sub camera unit 1540, and receives the photographing parameters from the right sub camera unit 1540 in step 1745.

【0145】次にステップ1750では左右サブカメラ
部のカメラの補正が終了したか否かを判別するために、
パノラマ映像表示中央制御部1584において左カメラ
撮影パラメータ計算終了=1かつ右カメラ撮影パラメー
タ計算終了=1であるか否かを判別する。
Next, in step 1750, in order to determine whether or not the correction of the cameras of the left and right sub camera units has been completed,
The panorama video display central control unit 1584 determines whether the left camera shooting parameter calculation end = 1 and the right camera shooting parameter calculation end = 1.

【0146】左カメラ撮影パラメータ計算終了=1かつ
右カメラ撮影パラメータ計算終了=1である場合にはス
テップ1800に進み、そうでない場合にはステップ16
40に戻り、左右サブカメラ部の撮影パラメータを計算す
る。
If the left camera shooting parameter calculation end = 1 and the right camera shooting parameter calculation end = 1, proceed to step 1800; otherwise, go to step 16
Returning to step 40, the photographing parameters of the left and right sub camera units are calculated.

【0147】次にステップ1800からステップ181
5まではメインカメラ部1500と左サブカメラ部15
20と右サブカメラ部1540からの映像をパノラマ合
成し表示するパノラマ映像表示処理を行う。
Next, from step 1800 to step 181
Up to 5, the main camera section 1500 and the left sub camera section 15
A panoramic video display process is performed to perform panoramic synthesis of the video from the sub-camera 20 and the right sub-camera unit 1540 for display.

【0148】ステップ1800では、パノラマ映像表示
通信部1581からメインカメラ部1500と左サブカ
メラ部1520と右サブカメラ部1540に対して映像
送信要求を送信する。そしてステップ1805において
左サブカメラ部1520と右サブカメラ部1540から
送られてきた映像をパノラマ映像表示通信部1581に
おいて受信する。次にステップ1810では、パノラマ
映像生成部1575で受信した3つの映像をパノラマ合
成処理し1枚のパノラマ映像にする。そしてステップ1
815においてパノラマ合成した映像をモニタ1578
に表示する。
At step 1800, a video transmission request is transmitted from panoramic video display communication section 1581 to main camera section 1500, left sub camera section 1520, and right sub camera section 1540. Then, in step 1805, the panorama image display communication unit 1581 receives the images transmitted from the left sub camera unit 1520 and the right sub camera unit 1540. Next, in step 1810, the three images received by the panorama image generation unit 1575 are subjected to panorama synthesis processing to make one panorama image. And step 1
In step 815, the panorama-composed image is displayed on the monitor 1578.
To be displayed.

【0149】次にステップ1820では、モニタ157
8に表示された終了ボタンをマウス1563によってユ
ーザが押したかどうかを判別し、ここで終了ボタンを押
した場合すなわち終了要求がある場合にはステップ18
30に進み、押していない場合にはステップ1825に
進む。ステップ1830ではメインカメラ1500と左
サブカメラ1520と右サブカメラ1540に終了命令
を送信する。そしてそれぞれカメラ部側ではステップ1
935において終了命令を受信しステップ1940において
カメラ中央制御部において終了処理を行う。
Next, at step 1820, the monitor 157
It is determined whether or not the user has pressed the end button displayed in Step 8 with the mouse 1563. If the end button has been pressed here, that is, if there is an end request, Step 18 is executed.
Proceed to step 30; if not pressed, proceed to step 1825. In step 1830, an end command is transmitted to main camera 1500, left sub camera 1520, and right sub camera 1540. And step 1 on the camera side
At 935, an end command is received, and at step 1940, end processing is performed in the camera central control unit.

【0150】ステップ1825では、モニタ1578に
表示されているカメラ配置図の中からメインカメラをマ
ウス1563のクリック操作によって指定したかどうか
を判別する。
At step 1825, it is determined whether or not the main camera has been designated by clicking the mouse 1563 from the camera layout displayed on the monitor 1578.

【0151】メインカメラの指定がある場合にはステッ
プ1610に戻り、ない場合にはステップ1835に進
む。
If the main camera is designated, the flow returns to step 1610; otherwise, the flow proceeds to step 1835.

【0152】続いてステップ1835では、モニタ15
78に表示されたカメラをパン,チルト,上下左右移
動,ズームさせるカメラ操作ボタンをマウス1563に
よって操作したかどうかを判別し、操作があった場合に
はステップ1840に進み、操作がない場合にはステッ
プ1800に戻る。
Subsequently, at step 1835, the monitor 15
It is determined whether or not the camera operation buttons for panning, tilting, moving up and down, right and left, and zooming the camera displayed at 78 have been operated by the mouse 1563. If an operation has been performed, the process proceeds to step 1840; Return to step 1800.

【0153】ステップ1840では、カメラ操作ボタン
によって入力された撮影パラメータをメインカメラ部1
500に送信し、ステップ1845において、メインカ
メラ部1500から送信された制御後の撮影パラメータ
を受信する。
In step 1840, the photographing parameters input by the camera operation buttons are
In step 1845, the control unit 500 receives the controlled shooting parameters transmitted from the main camera unit 1500.

【0154】そして、ステップ1610に戻る。Then, the process returns to step 1610.

【0155】このように、第2の実施例では、ユーザが
操作したいカメラを指定し、ユーザが撮影方向を操作す
ると、その左右のカメラとの映像合成による最も歪みが
小さくなる撮影パラメータを自動的に計算し、左右のカ
メラを制御することで、パノラマ合成処理における映像
の拡大処理による合成映像の粗さの違いや、パース補正
処理による映像の不自然な歪みを起こらないようにする
ことができる。
As described above, in the second embodiment, when the user specifies the camera to be operated and the user operates the shooting direction, the shooting parameters that minimize the distortion due to the image synthesis with the left and right cameras are automatically set. By controlling the left and right cameras, it is possible to prevent the difference in the roughness of the synthesized image due to the image enlargement processing in the panorama synthesis processing and the unnatural distortion of the image due to the perspective correction processing from occurring. .

【0156】次に本発明の第3の実施例を図25から図
29までを用いて説明する。
Next, a third embodiment of the present invention will be described with reference to FIGS.

【0157】図25は第3の実施例のデジタルカメラで
ある。第3の実施例では歪みのないパノラマ画像を作る
ために、最適な撮影方向で画像を取り込むことができる
デジタルカメラについて説明する。本実施例のデジタル
カメラは、静止画像を取り込むことができユーザはファ
インダーもしくはデジタルカメラ内蔵モニタに表示され
た最適な撮影方向のガイダンスに従って撮影することで
歪みのないパノラマ画像を生成するための画像ソースを
得ることができる。
FIG. 25 shows a digital camera according to the third embodiment. In the third embodiment, a digital camera that can capture an image in an optimal shooting direction in order to create a panoramic image without distortion will be described. The digital camera according to the present embodiment can capture a still image, and the user can take a picture according to the guidance of the optimal shooting direction displayed on a viewfinder or a monitor with a built-in digital camera to generate a panoramic image without distortion. Can be obtained.

【0158】図25は本実施例のデジタルカメラの図で
ある。デジタルカメラ2500には背面に液晶モニタ2
510が内蔵されており、ユーザは液晶モニタ2510
に表示されたプレビュー映像を見ながら撮影する。そし
て、液晶モニタ2510には最適な撮影方向をガイダン
スするためのグラフィック2520(以下撮影方向ガイ
ダンスという)が表示され、ユーザは撮影方向ガイダン
ス2520に従って、カメラを手でパンさせたりチルト
させたり撮影方向軸回りに回転させたりして、最適な撮
影方向になったところでシャッターを切る。撮影方向ガ
イダンスはシャッターを半押し状態にしたときに表示さ
れる。
FIG. 25 is a diagram of the digital camera of this embodiment. LCD monitor 2 on the back of the digital camera 2500
510 is built in, and the user can use the LCD monitor 2510
Shoot while watching the preview video displayed in. Then, a graphic 2520 (hereinafter referred to as a shooting direction guidance) for guiding the optimum shooting direction is displayed on the liquid crystal monitor 2510, and the user pans or tilts the camera by hand in accordance with the shooting direction guidance 2520 according to the shooting direction guidance 2520. Turn the shutter around and release the shutter when the optimal shooting direction is reached. The shooting direction guidance is displayed when the shutter is half-pressed.

【0159】ここで撮影ガイダンス2520のガイダン
ス方法について説明する。図26は撮影ガイダンス25
20のガイダンス方法を示した図である。撮影ガイダン
ス2520には、左方向パン操作を促す矢印2605
と、右方向パン操作を促す矢印2610と、ユーザに対
して下方向チルト操作を促す矢印2615と、上方向チ
ルト操作を促す矢印2620と、撮影方向軸の時計回り
方向の回転操作を促す矢印2625と、撮影方向軸の反
時計回り方向の回転操作を促す矢印2630がある。そ
して、必要な操作に関する矢印が点灯し、操作が不要
(位置合わせができた状態)になると矢印が消灯する。
そして、全ての方向に対して位置合わせができると、グ
ラフィック全体が点灯した状態の撮影方向ガイダンス2
650が表示され、ユーザにシャッター操作を促す。ま
た、1つ前に撮影した画像とこれから撮影しようとする
画像にオーバーラップする部分がない場合には撮影方向
ガイダンスは点滅しユーザにアラームを発する。
Here, the guidance method of the shooting guidance 2520 will be described. FIG. 26 shows the shooting guidance 25.
It is a figure showing 20 guidance methods. The shooting guidance 2520 includes an arrow 2605 urging a left panning operation.
An arrow 2610 urging the user to perform a downward tilt operation, an arrow 2615 urging the user to perform a downward tilt operation, an arrow 2620 urging an upward tilt operation, and an arrow 2625 urging a clockwise rotation operation of the shooting direction axis. And an arrow 2630 that prompts the user to rotate the shooting direction axis in a counterclockwise direction. Then, an arrow related to a necessary operation is turned on, and when the operation becomes unnecessary (in a state where the positioning is completed), the arrow is turned off.
Then, when the positioning can be performed in all directions, the shooting direction guidance 2 in a state where the entire graphic is turned on.
650 is displayed to prompt the user to perform a shutter operation. If there is no overlap between the image taken immediately before and the image to be taken, the shooting direction guidance flashes and an alarm is issued to the user.

【0160】図27は第3の実施例のシステム構成図で
ある。
FIG. 27 is a system configuration diagram of the third embodiment.

【0161】本システムは、撮影対象をデジタル画像と
して撮影する撮影部2705と撮影部2705で撮影し
たプレビュー画像を1枚一時保存する第1画像メモリ27
10と、最新画像の1つ前に撮影された画像を1枚一時保
存する第2画像メモリ2715と、撮影部2705で撮影し
た画像を蓄積する画像蓄積部2720と、第1画像メモ
リ2710と第2画像メモリ2715の画像からオーバ
ーラップする領域を検出するオーバーラップ領域検出部
2725と、第1画像メモリ2710の画像のオーバー
ラップ領域内の特徴的なブロック、すなわち映像を16
画素×16画素からなるブロックに分割したときに、そ
の分散値が最も大きくなるブロックとそのブロックに対
応する第2画像メモリ2715の画像内の対応ブロック
を求める特徴点抽出部2730と、撮影パラメータを計
算する撮影パラメータ計算部2735と、プレビュー画像を
表示したり撮影方向ガイダンスを表示したりする表示部
2740と、撮影部2705から映像を取り込むための
シャッターボタン2745と、全体の処理の流れを制御する
中央制御部2750とからなる。
The present system comprises a photographing unit 2705 for photographing a photographing target as a digital image and a first image memory 27 for temporarily storing one preview image photographed by the photographing unit 2705.
10, a second image memory 2715 for temporarily storing one image captured immediately before the latest image, an image storage unit 2720 for storing images captured by the imaging unit 2705, a first image memory 2710, An overlap area detection unit 2725 for detecting an overlap area from the image of the two-image memory 2715, and 16 blocks characteristic of the overlap area of the image of the first image memory 2710, that is, 16
When divided into blocks of pixels × 16 pixels, a feature point extracting unit 2730 for obtaining a block having the largest variance value and a corresponding block in the image of the second image memory 2715 corresponding to the block, A photographing parameter calculating unit 2735 to be calculated, a display unit 2740 for displaying a preview image or a photographing direction guidance, a shutter button 2745 for taking in a video from the photographing unit 2705, and controls the flow of the entire processing. And a central control unit 2750.

【0162】図28と図29は第3の実施例のフローチ
ャートである。
FIGS. 28 and 29 are flowcharts of the third embodiment.

【0163】まずはじめにステップ2800において処
理を開始しステップ2805に進む。ステップ2805
では表示部2740に撮影部2705で撮影している画
像をプレビュー表示する。次にステップ2810では中
央制御部2750においてユーザがシャッターボタン2
745を押したかどうかを判別し、押していない場合に
はステップ2805に戻り引き続きプレビュー表示し、
シャッターボタン2745を押した場合にはステップ2
815に進む。ステップ2815では撮影部2705で
撮影した画像を第2画像メモリ2715に転送し一時保
存し、続いてステップ2815では第2画像メモリ27
15に一時保存された画像を画像蓄積部2720にコピーし
保存し、ステップ2830に進む。
First, in step 2800, the processing is started, and the flow advances to step 2805. Step 2805
Then, a preview of the image captured by the image capturing unit 2705 is displayed on the display unit 2740. Next, in step 2810, the user presses the shutter button 2 in the central control unit 2750.
It is determined whether or not 745 has been pressed, and if it has not been pressed, the process returns to step 2805 to continuously display a preview.
Step 2 when the shutter button 2745 is pressed
Proceed to 815. In step 2815, the image photographed by the photographing unit 2705 is transferred to the second image memory 2715 and is temporarily stored.
The image temporarily stored in No. 15 is copied and stored in the image storage unit 2720, and the process proceeds to Step 2830.

【0164】次にステップ2830では、表示部274
0に撮影部2705で撮影している画像をプレビュー表
示する。そしてステップ2835では中央制御部275
0においてシャッターボタン2745が半押し状態であ
るか否かを判別し、半押し状態である場合にはステップ
2840に進み、半押し状態ではない場合にはステップ
2830に戻り表示部2740に撮影画像をプレビュー
表示する。ステップ2850では第1画像メモリ271
0に撮影部2705で獲得したプレビュー画像データを
転送し一時保存する。
Next, at step 2830, the display unit 274
At 0, a preview of the image captured by the image capturing unit 2705 is displayed. Then, in step 2835, the central control unit 275
At 0, it is determined whether or not the shutter button 2745 is half-pressed. If the shutter button 2745 is half-pressed, the process proceeds to step 2840; otherwise, the process returns to step 2830 and the captured image is displayed on the display unit 2740. Display a preview. In step 2850, the first image memory 271
Then, the preview image data acquired by the photographing unit 2705 is transferred to and temporarily stored.

【0165】以上の処理により、第1画像メモリ271
0にはプレビュー画像データが一時保存され、第2画像
メモリ2715には前回シャッターを切ったときの画像
データが一時保存される。
By the above processing, the first image memory 271
At 0, the preview image data is temporarily stored, and at the second image memory 2715, the image data obtained when the shutter is last released is temporarily stored.

【0166】次にステップ2855ではオーバーラップ
領域検出部2725において第1画像メモリ2710に
一時保存されている画像と第2画像メモリに一時保存さ
れている画像のオーバーラップ領域を検出する。オーバ
ーラップ領域の検出方法は第1の実施例で説明した通り
である。ただし、本実施例ではオーバーラップ検出処理
時に第1画像メモリ2710の画像と第2画像メモリ2
715の画像との間の相関の値が、著しく小さい場合に
はオーバーラップ領域は存在しないものと判別する。次
にステップ2860では中央制御部2750においてオ
ーバーラップ領域検出部2725の検出結果からオーバ
ーラップ領域が存在するのかしないのかを判別し、オー
バーラップ領域が存在する場合にはステップ2865に
進み、オーバーラップ領域が存在しない場合にはステッ
プ2870に進み、表示部2740に表示した撮影方向ガイ
ダンスグラフィックを点滅させ、オーバーラップ領域が
ないことをユーザに警告する。そしてステップ2830
に戻る。
Next, at step 2855, the overlap area detection unit 2725 detects the overlap area between the image temporarily stored in the first image memory 2710 and the image temporarily stored in the second image memory. The method of detecting the overlap area is as described in the first embodiment. However, in the present embodiment, the image in the first image memory 2710 and the second image memory 2
If the value of the correlation with the image 715 is extremely small, it is determined that no overlap area exists. Next, in step 2860, the central control unit 2750 determines whether or not there is an overlap area based on the detection result of the overlap area detection unit 2725. If there is an overlap area, the process proceeds to step 2865, where the overlap area is determined. If does not exist, the flow advances to step 2870 to blink the shooting direction guidance graphic displayed on the display unit 2740 to warn the user that there is no overlap area. And step 2830
Return to

【0167】ステップ2865では特徴点抽出部273
0では第1画像メモリ2710に一時保存された画像の
特徴矩形と第2画像メモリ2715に一時保存された画
像の対応矩形とを抽出する。特徴点抽出部2730にお
ける特徴点抽出処理は実施例1で説明した通りである。
In step 2865, the feature point extracting unit 273
At 0, the feature rectangle of the image temporarily stored in the first image memory 2710 and the corresponding rectangle of the image temporarily stored in the second image memory 2715 are extracted. The feature point extraction processing in the feature point extraction unit 2730 is as described in the first embodiment.

【0168】次にステップ2900では撮影パラメータ
計算部2735において、カメラの最適な撮影方向を計
算する。撮影方向の計算方法は実施例2の撮影パラメー
タ計算処理に示した通りである。ただし、ここではカメ
ラのパン,チルト,撮影方向軸回りの回転に関するカメ
ラの補正すべき方向のみを計算する。
Next, at step 2900, a photographing parameter calculation unit 2735 calculates an optimum photographing direction of the camera. The calculation method of the shooting direction is as shown in the shooting parameter calculation processing of the second embodiment. However, here, only the direction to be corrected by the camera regarding the pan, tilt, and rotation of the camera around the shooting direction axis is calculated.

【0169】次にステップ2905では表示部2740
に撮影方向ガイダンスを使って最適な撮影方向を表示
し、ユーザにカメラの修正すべき撮影方向(パン,チル
ト,撮影方向軸回りの回転の方向)を指示する。
Next, at step 2905, the display unit 2740
Is displayed using the shooting direction guidance, and the user is instructed on the shooting direction to be corrected by the camera (pan, tilt, direction of rotation around the shooting direction axis).

【0170】次にステップ2910では、中央制御部2
750においてステップ2900の撮影パラメータ計算
部2735の計算結果に基づいてカメラの撮影方向の修
正が終了したかどうかを判別し、修正終了である場合に
はステップ2915に進み、修正終了でない場合にはス
テップ2830に戻る。
Next, at step 2910, the central control unit 2
At 750, it is determined whether or not the correction of the shooting direction of the camera has been completed based on the calculation result of the shooting parameter calculation unit 2735 at step 2900, and if the correction has been completed, the process proceeds to step 2915; Return to 2830.

【0171】ステップ2915では、表示部2740に
おいてカメラの撮影方向が終了したことを示す撮影方向
ガイダンスのグラフィックを点灯させる。
At step 2915, the graphic of the shooting direction guidance indicating that the shooting direction of the camera has ended is illuminated on the display unit 2740.

【0172】次にステップ2920では、中央制御部2
750においてシャッターボタン2745が押されたか
どうかを判別し、シャッターボタン2745が押されて
いる場合にはステップ2925に進み、押されていない
場合にはステップ2830に戻る。
Next, at step 2920, the central control unit 2
At 750, it is determined whether or not the shutter button 2745 has been pressed. If the shutter button 2745 has been pressed, the process proceeds to step 2925, and if not, the process returns to step 2830.

【0173】ステップ2925では、撮影部2705で
撮影した画像データを第2画像メモリ2715に転送し
一時保存する。そして、ステップ2930において第2
画像メモリ2715に一時保存された画像を画像蓄積部
2720にコピーし保存する。
At step 2925, the image data photographed by the photographing unit 2705 is transferred to the second image memory 2715 and is temporarily stored. Then, in step 2930, the second
The image temporarily stored in the image memory 2715 is copied and stored in the image storage unit 2720.

【0174】次に本発明の第4の実施例を図30から図
32までを用いて説明する。
Next, a fourth embodiment of the present invention will be described with reference to FIGS.

【0175】図30は第4の実施例の航空写真の撮影シ
ステムの撮影の様子である。第4の実施例では複数の航
空写真を繋ぎ合わせてパノラマ航空写真を作成する際
に、画像撮影時のカメラの撮影方向を等しくすること
で、パノラマ航空写真の歪みを防ぐ航空写真撮影用カメ
ラシステムである。
FIG. 30 shows a state of shooting by the aerial photographing system of the fourth embodiment. In the fourth embodiment, when a plurality of aerial photographs are joined to create a panoramic aerial photograph, an aerial photographing camera system that prevents distortion of the panoramic aerial photograph by equalizing the photographing directions of the cameras at the time of image capturing. It is.

【0176】航空写真を撮影するために、飛行機300
0の下部にパンとチルトとズームと撮影方向軸回りの回
転とが制御できるTVカメラ3100を装着する。飛行
機3000に装着されたTVカメラ3100は、その撮
影範囲3020を撮影する。そして、撮影した範囲30
20と次に撮影する範囲3030は最適なオーバーラッ
プ領域3040(全体の35%程度の面積)を持つよう
に撮影する。撮影は本実施例のカメラシステムが自動的
に行う。
In order to take an aerial photograph, the airplane 300
A TV camera 3100 capable of controlling pan, tilt, zoom, and rotation around an axis in a shooting direction is mounted below 0. The TV camera 3100 mounted on the airplane 3000 captures an image of the capturing range 3020. And the photographed area 30
20 and a range 3030 to be photographed next are photographed so as to have an optimal overlap area 3040 (an area of about 35% of the entire area). The photographing is automatically performed by the camera system of this embodiment.

【0177】図31は本実施例の航空写真撮影用カメラ
システムのシステム構成図である。本実施例の航空写真
撮影用カメラシステムは、地上を撮影するパンとチルト
とズームと撮影方向軸回りの回転とが制御できるTVカ
メラ3100と、TVカメラ3100の映像をキャプチ
ャする映像キャプチャ部3105と、TVカメラ310
0の撮影方向を制御するカメラ制御部3110と、ユー
ザからの撮影開始要求を受け付けたり撮影終了要求を受
け付ける入力部3115と、映像キャプチャ部3105
でキャプチャしたプレビュー映像の1コマを一時保存す
る第1画像メモリ3120と、最新画像の1つ前に撮影
された画像を1枚一時保存する第2画像メモリ3125
と、映像キャプチャ部3105でキャプチャした静止画
像を蓄積する画像蓄積部3130と、プレビュー画像を
表示する表示部3135と、第1画像メモリ3120と
第2画像メモリ3125の画像からオーバーラップする
領域を検出するオーバーラップ領域検出部3140と、
第1画像メモリ3120の画像のオーバーラップ領域内の特
徴的なブロック、すなわち映像を16画素×16画素か
らなるブロックに分割したときに、その分散値が最も大
きくなるブロックとそのブロックに対応する第2画像メ
モリ3125の画像内の対応ブロックを求める特徴点抽
出部3145と、撮影パラメータを計算する撮影パラメ
ータ計算部3150と、全体の処理の流れを制御する中
央制御部3155とからなる。図32は第4の実施例の
フローチャートである。
FIG. 31 is a system configuration diagram of the aerial photographing camera system of this embodiment. The camera system for aerial photography according to the present embodiment includes a TV camera 3100 that can control pan, tilt, zoom, and rotation around a photographing direction axis for photographing the ground, and a video capture unit 3105 that captures an image of the TV camera 3100. , TV camera 310
0, a camera control unit 3110 that controls a shooting direction, an input unit 3115 that receives a shooting start request or a shooting end request from a user, and a video capture unit 3105.
A first image memory 3120 for temporarily storing one frame of the preview video captured in step 1, and a second image memory 3125 for temporarily storing one image taken immediately before the latest image
And an image storage unit 3130 for storing still images captured by the video capture unit 3105, a display unit 3135 for displaying a preview image, and detecting an overlapping area from the images in the first image memory 3120 and the second image memory 3125. An overlap area detection unit 3140 that performs
The characteristic block in the overlap area of the image in the first image memory 3120, that is, the block having the largest variance value when the video is divided into blocks of 16 × 16 pixels, and the block corresponding to the block It comprises a feature point extraction unit 3145 for finding a corresponding block in the image of the two-image memory 3125, a shooting parameter calculation unit 3150 for calculating shooting parameters, and a central control unit 3155 for controlling the flow of the entire processing. FIG. 32 is a flowchart of the fourth embodiment.

【0178】まずはじめにステップ3200において処
理を開始しステップ3205に進む。ステップ3205
では表示部3135にTVカメラ3100で撮影してい
る画像を映像キャプチャ部3105を介してプレビュー
表示する。次にステップ2810では入力部3115におい
てユーザが撮影開始ボタンを押したかどうかを判別し、
撮影開始ボタンを押した場合にはステップ3215に進
み、撮影開始ボタンを押していない場合にはステップ3
205に戻る。撮影開始ボタンを押すことでパノラマ画
像用の画像ソースの連続撮影を開始する。
First, in step 3200, the processing is started, and the flow advances to step 3205. Step 3205
In, the image captured by the TV camera 3100 is displayed as a preview on the display unit 3135 via the video capture unit 3105. Next, in step 2810, it is determined whether or not the user has pressed the shooting start button in the input unit 3115,
If the shooting start button has been pressed, the process proceeds to step 3215, and if the shooting start button has not been pressed, the process proceeds to step 315.
Return to 205. By pressing a shooting start button, continuous shooting of an image source for a panoramic image is started.

【0179】ステップ3215では映像キャプチャ部3
105において、TVカメラ3100の映像を1コマキャプ
チャする。次にステップ3220では映像キャプチャ部
3105でキャプチャした映像1コマを第1画像メモリ31
20に転送し一時保存する。次にステップ3225では
第1画像メモリ3120に一時保存された画像データを
画像蓄積部3130にコピーし保存する。次にステップ
3230では、映像キャプチャ部3105においてTV
カメラ3100の映像を1コマキャプチャする。そして
ステップ3235において第2画像メモリ3125にス
テップ3230でキャプチャした映像1コマを第2画像
メモリ3125に転送する。以上の処理によって第1画
像メモリ3120には前回画像蓄積用に撮影した画像が
一時保存され、第2画像メモリには現在TVカメラ31
00が撮影している画像が一時保存される。
In step 3215, the video capture unit 3
At 105, one frame of the video of the TV camera 3100 is captured. Next, in step 3220, the video capture unit
1 frame captured in 3105 is stored in the first image memory 31
20 and store it temporarily. Next, in step 3225, the image data temporarily stored in the first image memory 3120 is copied and stored in the image storage unit 3130. Next, in step 3230, the video capture unit 3105 sets the TV
One frame of the image of the camera 3100 is captured. Then, in step 3235, one frame of the video captured in step 3230 is transferred to second image memory 3125. Through the above processing, the image previously captured for image storage is temporarily stored in the first image memory 3120, and the current TV camera 31 is stored in the second image memory.
00 is temporarily stored.

【0180】次にステップ3240ではオーバーラップ
領域検出部3140において第1画像メモリ3120に
一時保存されている画像と、第2画像メモリ3125に
一時保存されている画像とのオーバーラップ領域を検出
する。オーバーラップ領域の検出方法は第1の実施例の
オーバーラップ検出処理で説明した通りである。
Next, at step 3240, the overlap area detecting section 3140 detects an overlap area between the image temporarily stored in the first image memory 3120 and the image temporarily stored in the second image memory 3125. The method of detecting the overlap area is as described in the overlap detection processing of the first embodiment.

【0181】次にステップ3245では特徴点抽出部3
145において第1画像メモリ3120に一時保存されてい
る画像の特徴矩形と第2画像メモリ3125に一時保存
されている画像の対応矩形との抽出を行う。特徴点抽出
処理は、第1の実施例の特徴点抽出処理で説明した通り
である。
Next, at step 3245, the feature point extracting unit 3
At 145, the feature rectangle of the image temporarily stored in the first image memory 3120 and the corresponding rectangle of the image temporarily stored in the second image memory 3125 are extracted. The feature point extraction processing is as described in the feature point extraction processing of the first embodiment.

【0182】次にステップ3250では撮影パラメータ
計算部3150において、TVカメラ3100のパン
角,チルト角,撮影方向軸回りの回転角,ズーム率の補
正量を計算する。そしてオーバーラップ領域の大きさが
全体の30%以下であるかどうかを判別する。以上の撮
影パラメータ計算処理は、第2の実施例の撮影パラメー
タ計算処理で説明した通りである。
Next, at step 3250, the photographing parameter calculation unit 3150 calculates the pan angle, the tilt angle, the rotation angle around the photographing direction axis, and the correction amount of the zoom ratio of the TV camera 3100. Then, it is determined whether or not the size of the overlap area is 30% or less of the whole. The above-described shooting parameter calculation processing is as described in the shooting parameter calculation processing of the second embodiment.

【0183】次にステップ3255ではカメラ制御部3
110においてステップ3225で計算したTVカメラ
3100のパン角,チルト角,撮影方向軸回りの回転
角,ズーム率の補正量でTVカメラ3100を制御す
る。
Next, at step 3255, the camera control unit 3
In step 110, the TV camera 3100 is controlled based on the pan angle, the tilt angle, the rotation angle around the shooting direction axis, and the correction amount of the zoom ratio calculated in step 3225.

【0184】次にステップ3260では入力部3115
においてユーザが撮影終了ボタンを押したかどうかを判
別し、撮影終了ボタンを押した場合にはステップ327
0に進み、中央制御部3155において終了処理を実施
し、撮影終了ボタンを押していない場合にはステップ3
265に進む。
Next, at step 3260, the input unit 3115
In step 327, it is determined whether the user has pressed the shooting end button.
0, the central control unit 3155 performs an end process, and if the imaging end button is not pressed, the process proceeds to step 3
Proceed to 265.

【0185】ステップ3265では中央制御部3155
において、ステップ3250の撮影パラメータ計算部3
150で計算したオーバーラップ領域の大きさが画像1
枚の大きさの35%以下になったかどうかを判別し35
%以下になった場合にはステップ3275に進み、35
%より重なり部分が大きい場合にはステップ3230に
戻る。
At the step 3265, the central control unit 3155
In step 3250, the photographing parameter calculation unit 3
The size of the overlap area calculated in 150 is image 1
It is determined whether the size is 35% or less of the size of the sheet.
%, The process proceeds to step 3275, where 35
If the overlapping portion is larger than%, the process returns to step 3230.

【0186】ステップ3275では第2画像メモリ31
25に一時保存されている画像データを画像蓄積部31
30にコピーし保存する。そしてステップ3280では
第2画像メモリ3125に一時保存されている画像デー
タを第1画像メモリ3120に転送し第1画像メモリ3
120で一時保存する。そしてステップ3230に戻
る。
In step 3275, the second image memory 31
The image data temporarily stored in the storage unit 25 is stored in the image storage unit 31.
30 and copy and save. In step 3280, the image data temporarily stored in the second image memory 3125 is transferred to the first image memory
Save temporarily at 120. Then, the process returns to step 3230.

【0187】[0187]

【発明の効果】本発明によれば、生成されるパノラマ画
像に撮影方向の違いによる不自然な歪みが起こらない。
パノラマ画像の品質が画像全体にわたって均一になり画
像と画像の切れ目が目立たなくなる。
According to the present invention, unnatural distortion due to a difference in a photographing direction does not occur in a generated panoramic image.
The quality of the panoramic image becomes uniform over the entire image, and the gap between the images becomes inconspicuous.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施例のシステム構成図。FIG. 1 is a system configuration diagram of a first embodiment.

【図2】第1の実施例のシステムのフローチャート。FIG. 2 is a flowchart of the system according to the first embodiment.

【図3】第1の実施例のシステムのフローチャート。FIG. 3 is a flowchart of the system according to the first embodiment;

【図4】第1の実施例のシステムのフローチャート。FIG. 4 is a flowchart of the system according to the first embodiment.

【図5】オーバーラップ領域検出処理のフローチャー
ト。
FIG. 5 is a flowchart of an overlap area detection process.

【図6】オーバーラップ領域検出処理の説明図。FIG. 6 is an explanatory diagram of an overlap area detection process.

【図7】オーバーラップ領域検出処理の説明図。FIG. 7 is an explanatory diagram of an overlap area detection process.

【図8】特徴点抽出処理のフローチャート。FIG. 8 is a flowchart of a feature point extraction process.

【図9】特徴点抽出処理のフローチャート。FIG. 9 is a flowchart of a feature point extraction process.

【図10】特徴点抽出処理の説明図。FIG. 10 is an explanatory diagram of a feature point extraction process.

【図11】撮影パラメータ計算処理のフローチャート。FIG. 11 is a flowchart of a shooting parameter calculation process.

【図12】撮影パラメータ計算処理のフローチャート。FIG. 12 is a flowchart of a shooting parameter calculation process.

【図13】撮影パラメータ計算処理の説明図。FIG. 13 is an explanatory diagram of a shooting parameter calculation process.

【図14】第2の実施例におけるTVカメラの配置図。FIG. 14 is a layout diagram of a TV camera according to the second embodiment.

【図15】第2の実施例のシステム構成図。FIG. 15 is a system configuration diagram of a second embodiment.

【図16】第2の実施例のフローチャート。FIG. 16 is a flowchart of the second embodiment.

【図17】第2の実施例のフローチャート。FIG. 17 is a flowchart of the second embodiment.

【図18】第2の実施例のフローチャート。FIG. 18 is a flowchart of the second embodiment.

【図19】第2の実施例のフローチャート。FIG. 19 is a flowchart of the second embodiment.

【図20】撮影パラメータの計算処理のフローチャー
ト。
FIG. 20 is a flowchart of a photographing parameter calculation process.

【図21】撮影パラメータの計算処理のフローチャー
ト。
FIG. 21 is a flowchart of a calculation process of photographing parameters.

【図22】撮影パラメータの計算処理のフローチャー
ト。
FIG. 22 is a flowchart of a calculation process of shooting parameters.

【図23】撮影パラメータ計算処理の説明図。FIG. 23 is an explanatory diagram of a photographing parameter calculation process.

【図24】撮影パラメータ計算処理の説明図。FIG. 24 is an explanatory diagram of a photographing parameter calculation process.

【図25】第3の実施例のデジタルカメラ。FIG. 25 is a digital camera according to a third embodiment.

【図26】撮影ガイダンスの説明図。FIG. 26 is an explanatory diagram of shooting guidance.

【図27】第3の実施例のシステム構成図。FIG. 27 is a system configuration diagram of a third embodiment.

【図28】第3の実施例のフローチャートである。FIG. 28 is a flowchart of the third embodiment.

【図29】第3の実施例のフローチャートである。FIG. 29 is a flowchart of the third embodiment.

【図30】第4の実施例の航空写真撮影用カメラシステ
ム。
FIG. 30 shows an aerial photographing camera system according to a fourth embodiment.

【図31】本実施例の航空写真撮影用カメラシステムの
システム構成図。
FIG. 31 is a system configuration diagram of the camera system for aerial photography according to the present embodiment.

【図32】第4の実施例のフローチャート。FIG. 32 is a flowchart of the fourth embodiment.

【符号の説明】[Explanation of symbols]

100…第1カメラ部、103,3100…TVカメ
ラ、106…カメラ制御部、109…映像キャプチャ
部、112…カメラ通信部、115…カメラ中央制御
部、130…第2カメラ部、160…パノラマ映像表示
部、163…入力部、166,2730…特徴点抽出
部、169,2735…撮影パラメータ計算部、172
…撮影パラメータテーブル、175…パノラマ映像生成
部、178,2740…表示部、181…パノラマ映像表示
通信部、184…パノラマ映像表示中央制御部、187
…オーバーラップ領域検出部、190…ネットワーク、
1500…メインカメラ部、1520…左サブカメラ
部、1540…右サブカメラ部、1560…パノラマ映
像表示部、1590…ネットワーク、2500…デジタ
ルカメラ、2510…液晶ディスプレイ、2705…撮
影部、2710…第1画像メモリ、2715…第2画像
メモリ、2720…画像蓄積部、2725…オーバーラ
ップ領域検出部、2745…シャッターボタン、275
0…中央制御部、3000…飛行機。
100: first camera unit, 103, 3100: TV camera, 106: camera control unit, 109: video capture unit, 112: camera communication unit, 115: camera central control unit, 130: second camera unit, 160: panoramic image Display unit, 163 input unit, 166, 2730 feature point extraction unit, 169, 2735 photography parameter calculation unit, 172
.., A photographing parameter table, 175, a panoramic image generation unit, 178, 2740, a display unit, 181, a panorama image display communication unit, 184, a panorama image display central control unit, 187
... overlap area detection unit, 190 ... network,
1500: main camera unit, 1520: left sub camera unit, 1540: right sub camera unit, 1560: panoramic image display unit, 1590: network, 2500: digital camera, 2510: liquid crystal display, 2705: photographing unit, 2710: first Image memory 2715 Second image memory 2720 Image storage unit 2725 Overlap area detection unit 2745 Shutter button 275
0: Central control unit, 3000: Airplane.

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】2枚以上の画像を合成するパノラマ画像生
成カメラシステムにおいて、撮影用カメラと、該撮影用
カメラにより撮影された撮影画像に基づいてカメラの撮
影パラメータを計算する撮影パラメータ計算手段を持つ
パノラマ画像生成用カメラシステム。
1. A panoramic image generation camera system for synthesizing two or more images, comprising: a photographing camera; and photographing parameter calculating means for calculating photographing parameters of the camera based on a photographed image photographed by the photographing camera. Camera system for generating panoramic images.
【請求項2】前記撮影パラメータは、カメラのパン角,
チルト角,撮影方向軸回りの回転角のうちの少なくとも
1つである請求項1のパノラマ画像生成用カメラシステ
ム。
2. The photographing parameter includes a pan angle of a camera,
2. The panoramic image generation camera system according to claim 1, wherein the camera system is at least one of a tilt angle and a rotation angle around a shooting direction axis.
【請求項3】前記撮影パラメータは、カメラの上下方
向、あるいは前後方向、あるいは左右方向の少なくとも
1つである請求項1のパノラマ画像生成用カメラシステ
ム。
3. The panoramic image generation camera system according to claim 1, wherein the photographing parameter is at least one of a vertical direction, a front-back direction, and a left-right direction of the camera.
【請求項4】前記撮影パラメータは、カメラのズーム率
である請求項1のパノラマ画像生成用カメラシステム。
4. The camera system for generating a panoramic image according to claim 1, wherein said photographing parameter is a zoom ratio of a camera.
【請求項5】前記撮影パラメータ計算手段は、パノラマ
合成するためのカメラで撮影されたそれぞれの画像の特
徴点あるいは領域画像に基づき、撮影パラメータを計算
する請求項1のパノラマ画像生成用カメラシステム。
5. The panoramic image generation camera system according to claim 1, wherein said photographing parameter calculating means calculates a photographing parameter based on a feature point or a region image of each image photographed by a camera for panoramic composition.
【請求項6】前記撮影パラメータ計算手段は、特徴点間
の距離やオーバーラップ領域画像の大きさに基づいて、
カメラのズーム率、あるいはカメラの前後方向、あるい
は左右方向、あるいは上下方向のうちの少なくとも1つ
を計算する請求項5のパノラマ画像生成用カメラシステ
ム。
6. The photographing parameter calculating means, based on a distance between feature points and a size of an overlap area image.
The camera system for generating a panoramic image according to claim 5, wherein at least one of a zoom ratio of the camera, a front-rear direction of the camera, a left-right direction, or a vertical direction is calculated.
【請求項7】前記撮影パラメータ計算手段は、特徴点を
結んだ直線で構成される領域のパース(歪み具合)ある
いはオーバーラップ領域画像のパース(歪み具合)に基
づいて、カメラのパン角、あるいはチルト角のうちの少
なくとも1つを計算する請求項5のパノラマ画像生成用
カメラシステム。
7. A camera pan angle or a camera pan angle based on a perspective (distortion degree) of an area constituted by straight lines connecting characteristic points or a perspective (distortion degree) of an overlap area image. 6. The panoramic image generation camera system according to claim 5, wherein at least one of the tilt angles is calculated.
【請求項8】前記撮影パラメータ計算手段が特徴点を結
んだ直線の傾きあるいはオーバーラップ領域画像の傾き
に基づいて、カメラの撮影方向軸回りの回転角を計算す
る請求項5のパノラマ画像生成用カメラシステム。
8. The panoramic image generating apparatus according to claim 5, wherein said photographing parameter calculating means calculates a rotation angle of the camera around a photographing direction axis based on a slope of a straight line connecting the characteristic points or a slope of the overlap area image. Camera system.
【請求項9】前記撮影パラメータ計算手段は、画像間の
オーバーラップ領域の重なり位置から、カメラの前後方
向の位置、あるいは左右方向の位置、あるいは上下方向
の位置を計算する請求項5のパノラマ画像生成用カメラ
システム。
9. The panoramic image according to claim 5, wherein said photographing parameter calculating means calculates a position in the front-rear direction, a position in the left-right direction, or a position in the up-down direction of the camera from the overlapping position of the overlap area between the images. Camera system for generation.
【請求項10】前記撮影パラメータ計算手段は、画像間
のオーバーラップ領域の大きさから撮影のシャッターを
切るタイミングを計算する請求項5のパノラマ画像生成
用カメラシステム。
10. The panoramic image generating camera system according to claim 5, wherein said photographing parameter calculating means calculates a timing of releasing a photographing shutter from a size of an overlap area between images.
【請求項11】前記撮影パラメータ計算手段は、1台の
カメラで撮影した複数のフレームの画像を比較し、撮影
パラメータを計算する請求項1のパノラマ画像生成用カ
メラシステム。
11. The panoramic image generation camera system according to claim 1, wherein said photographing parameter calculating means compares the images of a plurality of frames photographed by one camera and calculates photographing parameters.
【請求項12】前記撮影パラメータ計算手段は、2台以
上のカメラの画像を比較し、撮影パラメータを計算する
請求項1のパノラマ画像生成用カメラシステム。
12. The panoramic image generation camera system according to claim 1, wherein said photographing parameter calculation means compares images of two or more cameras and calculates photographing parameters.
【請求項13】撮影パラメータ計算部によって計算され
た撮影パラメータに基づきカメラを制御するカメラ制御
手段を持つ請求項12のパノラマ画像生成用カメラシス
テム。
13. The panoramic image generation camera system according to claim 12, further comprising camera control means for controlling the camera based on the photographing parameters calculated by the photographing parameter calculating section.
【請求項14】ユーザがカメラの撮影方向や画像のズー
ムを指定する指定手段を持つ請求項1のパノラマ映像用
カメラシステム。
14. The panoramic video camera system according to claim 1, further comprising a designating means for designating a photographing direction of the camera and a zoom of an image by a user.
【請求項15】撮影パラメータ計算手段において計算し
た撮影パラメータをユーザに教示する撮影パラメータ教
示手段を持つ請求項1のパノラマ映像生成用カメラシス
テム。
15. The camera system for generating a panoramic image according to claim 1, further comprising a photographing parameter teaching means for teaching a photographing parameter calculated by the photographing parameter calculating means to a user.
【請求項16】2枚以上の画像を合成し1枚の画像のよ
うに見せるパノラマ画像生成のための原画像を撮影する
カメラシステムにおいて、パノラマ画像を撮影するため
の撮影パラメータを保持する撮影パラメータ保持手段を
持つパノラマ画像生成用カメラシステム。
16. A camera system for capturing an original image for generating a panoramic image that combines two or more images to make it look like a single image. A camera system for generating panoramic images having holding means.
【請求項17】ユーザが撮影パラメータ保持手段から所
望のパラメータを指示する撮影パラメータ指示手段を持
つ請求項16のパノラマ画像生成用カメラシステム。
17. A panoramic image generation camera system according to claim 16, further comprising a photographing parameter designating means for allowing a user to designate a desired parameter from the photographing parameter holding means.
JP11207237A 1999-07-22 1999-07-22 Camera system for generating panoramic video Pending JP2001036898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11207237A JP2001036898A (en) 1999-07-22 1999-07-22 Camera system for generating panoramic video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11207237A JP2001036898A (en) 1999-07-22 1999-07-22 Camera system for generating panoramic video

Publications (1)

Publication Number Publication Date
JP2001036898A true JP2001036898A (en) 2001-02-09

Family

ID=16536503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11207237A Pending JP2001036898A (en) 1999-07-22 1999-07-22 Camera system for generating panoramic video

Country Status (1)

Country Link
JP (1) JP2001036898A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247571A (en) * 2001-02-16 2002-08-30 Toshimitsu Yamashita Aerial photograph processing system
JP2006229802A (en) * 2005-02-21 2006-08-31 Hitachi Ltd Image synthesizing device and imaging system
JP2007159641A (en) * 2005-12-09 2007-06-28 Rf:Kk Image processor and medical system
WO2008056421A1 (en) * 2006-11-10 2008-05-15 Mitsubishi Electric Corporation Network image synthesizing display system
JP2009200782A (en) * 2008-02-21 2009-09-03 Nikon Corp Image output characteristic correction system
JP2010050842A (en) * 2008-08-22 2010-03-04 Sony Taiwan Ltd High dynamic stitching method for multi-lens camera system
JP2011172093A (en) * 2010-02-19 2011-09-01 Nikon Corp Imaging apparatus
JP2015118101A (en) * 2015-02-02 2015-06-25 キヤノン株式会社 Information processing device and method and program
CN105979238A (en) * 2016-07-05 2016-09-28 深圳市德赛微电子技术有限公司 Method for controlling global imaging consistency of multiple cameras
KR101839569B1 (en) * 2013-12-13 2018-03-16 후아웨이 디바이스 (둥관) 컴퍼니 리미티드 Method and terminal for acquiring panoramic image
JP2019519128A (en) * 2016-04-06 2019-07-04 フェイスブック,インク. Transition between binocular vision / monocular vision
JP2021087186A (en) * 2019-11-29 2021-06-03 富士通株式会社 Video generation program, video generation method, and video generation system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247571A (en) * 2001-02-16 2002-08-30 Toshimitsu Yamashita Aerial photograph processing system
JP4506501B2 (en) * 2005-02-21 2010-07-21 株式会社日立製作所 Image composition device and imaging system
JP2006229802A (en) * 2005-02-21 2006-08-31 Hitachi Ltd Image synthesizing device and imaging system
JP2007159641A (en) * 2005-12-09 2007-06-28 Rf:Kk Image processor and medical system
WO2008056421A1 (en) * 2006-11-10 2008-05-15 Mitsubishi Electric Corporation Network image synthesizing display system
US8233056B2 (en) 2006-11-10 2012-07-31 Mitsubishi Electric Corporation Network image-synthesis display system
JP2009200782A (en) * 2008-02-21 2009-09-03 Nikon Corp Image output characteristic correction system
JP2010050842A (en) * 2008-08-22 2010-03-04 Sony Taiwan Ltd High dynamic stitching method for multi-lens camera system
JP2011172093A (en) * 2010-02-19 2011-09-01 Nikon Corp Imaging apparatus
KR101839569B1 (en) * 2013-12-13 2018-03-16 후아웨이 디바이스 (둥관) 컴퍼니 리미티드 Method and terminal for acquiring panoramic image
US10277804B2 (en) 2013-12-13 2019-04-30 Huawei Device Co., Ltd. Method and terminal for acquiring panoramic image
US10771686B2 (en) 2013-12-13 2020-09-08 Huawei Device Co., Ltd. Method and terminal for acquire panoramic image
US11336820B2 (en) 2013-12-13 2022-05-17 Huawei Device Co., Ltd. Method and terminal for acquire panoramic image
US11846877B2 (en) 2013-12-13 2023-12-19 Huawei Device Co., Ltd. Method and terminal for acquiring panoramic image
JP2015118101A (en) * 2015-02-02 2015-06-25 キヤノン株式会社 Information processing device and method and program
JP2019519128A (en) * 2016-04-06 2019-07-04 フェイスブック,インク. Transition between binocular vision / monocular vision
CN105979238A (en) * 2016-07-05 2016-09-28 深圳市德赛微电子技术有限公司 Method for controlling global imaging consistency of multiple cameras
JP2021087186A (en) * 2019-11-29 2021-06-03 富士通株式会社 Video generation program, video generation method, and video generation system
JP7384008B2 (en) 2019-11-29 2023-11-21 富士通株式会社 Video generation program, video generation method, and video generation system

Similar Documents

Publication Publication Date Title
US7277118B2 (en) Method and system for compensating for parallax in multiple camera systems
EP2018049B1 (en) Method of assembling a panoramic image and camera therefor
EP2161925A2 (en) Method and system for fusing video streams
US20070081081A1 (en) Automated multi-frame image capture for panorama stitching using motion sensor
EP1536633A1 (en) Photographing apparatus and method, supervising system, program and recording medium
US20090021576A1 (en) Panoramic image production
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP2006262030A (en) Angle of view adjusting apparatus, camera system, and angle of view adjusting method
JP4736381B2 (en) Imaging apparatus and method, monitoring system, program, and recording medium
JP4581210B2 (en) Video conference system
JP2001036898A (en) Camera system for generating panoramic video
JPWO2019026746A1 (en) Image processing apparatus and method, imaging apparatus, and program
CN108540720B (en) System and method for automatically selecting optimal image for bullet time
CN111935410B (en) Quick view finding method and system for multi-camera shooting
JP2004266670A (en) Image pickup device and method, image information providing system and program
JP3994469B2 (en) Imaging device, display device, and recording device
JP2014039166A (en) Controller of automatic tracking camera and automatic tracking camera equipped with the same
JP2000341574A (en) Camera device and camera control system
JP3948050B2 (en) Imaging, storage, processing, display, playback, transmission device and recording medium
JP4148251B2 (en) Imaging device and display device
KR100579135B1 (en) Method for capturing convergent-type multi-view image
JP2011022203A (en) Af frame automatic follow-up system and method for automatically following up af frame
JP3891402B2 (en) Image clipping control device
CN113840084A (en) Method for realizing control of panoramic tripod head based on PTZ (Pan/Tilt/zoom) return technology of dome camera
JP2005348449A5 (en)