JP2000261705A - Photographing device - Google Patents

Photographing device

Info

Publication number
JP2000261705A
JP2000261705A JP11059249A JP5924999A JP2000261705A JP 2000261705 A JP2000261705 A JP 2000261705A JP 11059249 A JP11059249 A JP 11059249A JP 5924999 A JP5924999 A JP 5924999A JP 2000261705 A JP2000261705 A JP 2000261705A
Authority
JP
Japan
Prior art keywords
image
memory
omnidirectional
coordinates
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11059249A
Other languages
Japanese (ja)
Inventor
Shigeyuki Matsuki
茂之 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tamura Electric Works Ltd
Original Assignee
Tamura Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tamura Electric Works Ltd filed Critical Tamura Electric Works Ltd
Priority to JP11059249A priority Critical patent/JP2000261705A/en
Publication of JP2000261705A publication Critical patent/JP2000261705A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To attain photographing in every direction with an economical configuration in a photographing device and to prevent mismatching in a connected part between photographed pictures. SOLUTION: The photographing device is provided with a conical mirror 111 that outputs an incident light from the surrounding as a reflected light, a camera main body 112 that receives the reflected light of the conical mirror and photographs an object, and an image processing section that demodulates a circular omnidirectional photographing picture photographed by the camera main body into a square omnidirectional picture. In this case, a memory 130 of an image processing section stores the omnidirectional photographing picture, a conversion section 12A converts each coordinate of the omnidirectional photographing picture stored in the memory into picture data by relating each coordinate of the omnidirectional photographing picture to a coordinate of each memory element of a memory 140, a demodulation section stores the picture data of each coordinate of the omnidirectional photographing picture in the memory 130 converted by the conversion section to each corresponding memory element of the memory 140 to generate a square omnidirectional photographing picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人物や周囲の風景
などを撮影する撮影装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a photographing apparatus for photographing a person, a surrounding landscape, and the like.

【0002】[0002]

【従来の技術】全方位(360度)画像を作成する場
合、一般に、角度を変えて撮影した複数の映像をソフト
ウェア処理により接続している。図13(a)は360
度回転し各時点で順次周囲の風景などを撮影するカメラ
200であり、図13(b)はカメラ200により撮影
した画像の合成状況を示す図である。図13(b)にお
いて、210はカメラ200による或る時点の撮影画
像、220は次の時点の撮影画像である。また、201
は樹木、202は自動車を示している。
2. Description of the Related Art Generally, when creating an omnidirectional (360 degree) image, a plurality of videos taken at different angles are connected by software processing. FIG. 13A shows 360
FIG. 13B is a diagram illustrating a state of synthesis of images captured by the camera 200. In FIG. 13B, reference numeral 210 denotes an image captured by the camera 200 at a certain time, and 220 denotes an image captured at the next time. Also, 201
Indicates a tree, and 202 indicates a car.

【0003】図14は視野角120度のカメラ251〜
253をそれぞれ120度毎に配置した例であり、3台
のカメラ251〜253でそれぞれ同時に撮影した画像
をソフトウェア処理により接続する。
FIG. 14 shows cameras 251 to 251 having a viewing angle of 120 degrees.
253 are arranged at every 120 degrees, and images taken simultaneously by three cameras 251 to 253 are connected by software processing.

【0004】[0004]

【発明が解決しようとする課題】図13(a)に示す1
台のカメラ200が360度回転して順次周囲の風景な
どを撮影する場合、或る時点の撮影画像210と、次の
時点の撮影画像220とを接続すると、静止している樹
木201などは問題を生じないが、自動車202などの
ように時々刻々移動しているものは、撮影画像210と
220間の接続点230において、図13(b)に示す
ように各画像間で不整合が生じるという問題がある。ま
た、カメラ200は常時回転しているため、故障頻度が
高くなるという欠点もある。
Problems to be Solved by the Invention 1 shown in FIG.
When the two cameras 200 are rotated 360 degrees to sequentially capture the surrounding scenery and the like, if the captured image 210 at a certain time and the captured image 220 at the next time are connected, the stationary tree 201 and the like may cause a problem. However, as shown in FIG. 13 (b), a moving object such as an automobile 202, which is moving every moment, has a mismatch between the images at the connection point 230 between the captured images 210 and 220. There's a problem. In addition, since the camera 200 is constantly rotating, there is a disadvantage that the frequency of failure increases.

【0005】また、図14に示す3台のカメラにより同
時撮影する例では、コストアップを招くとともに、各カ
メラのゲイン(絞り及びピントなどを含む)を正確に合
わせこまなければならないという問題がある。したがっ
て本発明は、全方位の撮影が可能であり、かつ各撮影画
像間の接続部分に不整合が生じない経済的な撮影装置を
提供することを目的とする。
[0005] Further, in the example of simultaneous photographing by three cameras shown in FIG. 14, there is a problem that the cost is increased and the gain (including aperture and focus) of each camera must be accurately adjusted. . SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an economical photographing apparatus that can photograph in all directions and does not cause a mismatch at a connection portion between photographed images.

【0006】[0006]

【課題を解決するための手段】このような課題を解決す
るために本発明の撮影装置は、1つのカメラにより全方
位の映像を撮影可能な装置であって、周囲からの入射光
を反射光として出力する円錐形状のミラーと、ミラーか
らの反射光を入力して撮影するカメラ部と、画像処理部
とからなり、画像処理部は、カメラ部により撮影された
円状の全方位撮影画像を方形状の全方位画像に復調する
ようにしたことにより特徴づけられる。この場合、画像
処理部は、複数のメモリ素子が縦横に配置され円状の全
方位撮影画像を記憶する第1のメモリと、複数のメモリ
素子が縦横に配置された第2のメモリと、第1のメモリ
の撮影画像の各座標を第2のメモリの各メモリ素子の座
標に関連づけて変換する変換部と、復調部とを備え、復
調部は変換部により変換された第1のメモリの撮影画像
の各座標の画像データを第2のメモリの対応する各メモ
リ素子に記憶し方形状の全方位画像として復調するもの
である。さらに、カメラ部により撮影された円状の撮影
画像は、中心部に円状の撮影無効エリアを有するととも
に、外周部と撮影無効エリアの外周に位置する内周部と
の間の画像が有効画像として第1のメモリに記憶され、
変換部は、第1のメモリに記憶された円状の全方位撮影
画像の各座標を第2のメモリの各メモリ素子の座標に変
換するときには、第1のメモリの撮影画像の中心部を中
心とし、内周部から外周部の方向に所定の間隔で順次配
置された複数の同心円と、中心部から外周部の方向に所
定の角度で順次配置された複数の線分との交点の座標を
求め、かつ復調部は、前記同心円を縦軸とするとともに
前記線分を横軸とした座標で示される第2のメモリのメ
モリ素子に、変換部により変換された第1のメモリの座
標の画像データを記憶するものである。
SUMMARY OF THE INVENTION In order to solve such a problem, a photographing apparatus according to the present invention is an apparatus which can photograph an omnidirectional image by one camera, and reflects incident light from the surroundings to reflected light. A cone-shaped mirror that outputs as an image, a camera unit that captures the reflected light from the mirror, and an image processing unit.The image processing unit converts a circular omnidirectional image captured by the camera unit. It is characterized by demodulating into a rectangular omnidirectional image. In this case, the image processing unit includes: a first memory in which a plurality of memory elements are arranged vertically and horizontally to store a circular omnidirectional captured image; a second memory in which a plurality of memory elements are arranged vertically and horizontally; A conversion unit that converts each coordinate of the captured image in the first memory in association with the coordinates of each memory element in the second memory; and a demodulation unit, wherein the demodulation unit captures the first memory converted by the conversion unit. The image data of each coordinate of the image is stored in the corresponding memory element of the second memory and demodulated as a rectangular omnidirectional image. Further, the circular photographed image photographed by the camera section has a circular photographing invalid area in the center, and an image between the outer peripheral part and the inner peripheral part located on the outer periphery of the photographing invalid area is an effective image. Is stored in the first memory as
When converting the coordinates of the circular omnidirectional captured image stored in the first memory into the coordinates of each memory element of the second memory, the conversion unit centers the center of the captured image of the first memory. The coordinates of the intersection of a plurality of concentric circles sequentially arranged at predetermined intervals in the direction from the inner peripheral portion to the outer peripheral portion and a plurality of line segments sequentially arranged at a predetermined angle in the direction from the central portion to the outer peripheral portion. The demodulation unit calculates the image of the coordinates of the first memory converted by the conversion unit into the memory element of the second memory indicated by the coordinates with the concentric circle as the vertical axis and the line segment as the horizontal axis. This is for storing data.

【0007】[0007]

【発明の実施の形態】以下、本発明について図面を参照
して説明する。図12は本発明を適用したシステムの構
成を示すブロック図である。図12において、本システ
ムは、複数の街頭設置部1A,1B,・・・,1Zと、
画面作成センタ2と、ネットワーク3と、ユーザ端末4
A〜4Cとからなる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. FIG. 12 is a block diagram showing a configuration of a system to which the present invention is applied. In FIG. 12, the system includes a plurality of street installation units 1A, 1B,.
Screen creation center 2, network 3, user terminal 4
A to 4C.

【0008】街頭設置部1A,1Bには、それぞれ、全
方位カメラ11と、この全方位カメラ11の撮影画像を
処理する変換部12A及び復調部12Bからなる画像処
理部12が設けられている。街頭設置部1A,1Bに
は、さらに温度センサ13と、この温度センサ13によ
り検出された温度を補正するデータ補正部14と、風向
・風速センサ15と、風向・風速センサ15の出力を解
析する風向・風速解析部16と、画像処理部12,デー
タ補正部14及び風向・風速解析部16の各出力を伝送
路インタフェース18を介して画面作成センタ2に伝送
する伝送制御部17とが設けられている。
Each of the street installation sections 1A and 1B is provided with an omnidirectional camera 11 and an image processing section 12 comprising a conversion section 12A and a demodulation section 12B for processing images taken by the omnidirectional camera 11. The street installation units 1A and 1B further analyze a temperature sensor 13, a data correction unit 14 for correcting the temperature detected by the temperature sensor 13, a wind direction / wind speed sensor 15, and an output of the wind direction / wind speed sensor 15. A wind direction / wind speed analysis unit 16 and a transmission control unit 17 that transmits each output of the image processing unit 12, the data correction unit 14, and the wind direction / wind speed analysis unit 16 to the screen creation center 2 via the transmission line interface 18 are provided. ing.

【0009】画面作成センタ2は、街頭設置部1A,1
Bのインタフェースであるインタフェース21A,21
Bと、街頭設置部1A,1Bの周辺に設置されている店
舗内の情報提供者10A,10Bからの地域情報を受信
する回線インタフェース25A,25Bと、受信した地
域情報の蓄積及びその地域情報のリンク先を記憶する地
域情報収集解析部26A,26Bと、バス27と、デー
タベース28と、伝送路インタフェース29と、制御部
30とからなる。また、画面作成センタ2内のインタフ
ェース21A,21Bは、それぞれ伝送路インタフェー
ス22と、データベース作成更新部23と、リンクテー
ブル24とからなる。
[0009] The screen creation center 2 includes street setting units 1A and 1
Interfaces 21A and 21 which are interfaces of B
B, line interfaces 25A and 25B for receiving local information from the information providers 10A and 10B in the stores installed around the street installation units 1A and 1B, storage of the received local information and It is composed of local information collection / analysis units 26A and 26B that store link destinations, a bus 27, a database 28, a transmission line interface 29, and a control unit 30. The interfaces 21A and 21B in the screen creation center 2 each include a transmission line interface 22, a database creation / update unit 23, and a link table 24.

【0010】ここで街頭設置部1A,1Bでは、自身が
設置されている周囲の風景や温度、風向き、風速などを
時々刻々画面作成センタ2へ送信する一方、それぞれ各
街頭設置部1A,1Bの周囲に配置されている店舗内の
各情報提供者10A,10Bはそれぞれ自身の店舗など
の情報を地域情報として画面作成センタ2へ送信する。
画面作成センタ2では、街頭設置部1Aからの送信情報
と情報提供者10Aからの地域情報とを関連づけてデー
タベース28に記憶する。また、街頭設置部1Bからの
送信情報と情報提供者10Bからの地域情報とを関連づ
けてデータベース28に記憶する。そして、画面作成セ
ンタ2では各ユーザからそれぞれユーザ端末4A〜4C
及びネットワーク3を介してアクセスされると、該当の
街頭設置部1が配置されている場所の風景や地域情報を
データベース28から取り出して伝送路インタフェース
29及びネットワーク3を介してユーザ端末に送信し、
ユーザに提供する。
Here, the street setting sections 1A and 1B transmit the surrounding scenery, temperature, wind direction, wind speed and the like where they are set to the screen creation center 2 from time to time, while the street setting sections 1A and 1B respectively. Each of the information providers 10A and 10B in the stores arranged in the vicinity transmits information on its own store and the like to the screen creation center 2 as regional information.
In the screen creation center 2, the transmission information from the street installation unit 1A and the regional information from the information provider 10A are stored in the database 28 in association with each other. Further, the transmission information from the street installation unit 1B and the regional information from the information provider 10B are stored in the database 28 in association with each other. In the screen creation center 2, the user terminals 4A to 4C
And when accessed via the network 3, the scenery and regional information of the place where the corresponding street installation unit 1 is arranged is extracted from the database 28 and transmitted to the user terminal via the transmission path interface 29 and the network 3,
Provide to users.

【0011】街頭設置部1Aの全方位カメラ11(街頭
設置部1Bの全方位カメラも同様)は、図1(a)に示
すように、円錐鏡111と、カメラ本体112とからな
る。円錐鏡111では周囲からの入射光INを反射して
反射光OUTとしてカメラ本体112に送出する。カメ
ラ本体112では円錐鏡111からの反射光OUTを入
力して撮影する。
The omnidirectional camera 11 of the street setting section 1A (the same applies to the omnidirectional camera of the street setting section 1B) comprises a conical mirror 111 and a camera body 112 as shown in FIG. The conical mirror 111 reflects the incident light IN from the surroundings and sends it to the camera body 112 as reflected light OUT. The camera body 112 captures an image by inputting the reflected light OUT from the conical mirror 111.

【0012】図1(b)はこのようにしてカメラ本体1
12で撮影され、画像処理部12のメモリ130の各メ
モリ素子に各画素として記憶された撮影画像120を示
す図である。図1(b)において、121は自動車画
像、122はビルの画像、123は樹木の画像を示す。
なお、撮影画像120の中心部は、画像として適さない
無効エリア124である。カメラ本体112は、円錐鏡
111による反射光を入力して撮影するため、その撮影
画像120は、図1(b)に示すような円状の画像とな
り、その画像は歪みが生じて中心部(無効エリア12
4)に近づくにつれて小さくなる。このため、画像処理
部12では後述するソフトウェア処理により、図1
(b)の撮影画像120を図1(c)に示すような正規
の画像に復調する。
FIG. 1B shows the camera body 1 in this manner.
FIG. 3 is a diagram illustrating a captured image 120 captured at 12 and stored as each pixel in each memory element of a memory 130 of the image processing unit 12. In FIG. 1B, 121 is an automobile image, 122 is a building image, and 123 is a tree image.
Note that the center of the captured image 120 is an invalid area 124 that is not suitable as an image. Since the camera body 112 captures the image by inputting the reflected light from the conical mirror 111, the captured image 120 becomes a circular image as shown in FIG. 1B, and the image is distorted due to the center portion ( Invalid area 12
It becomes smaller as approaching 4). For this reason, the image processing unit 12 executes the software processing described later in FIG.
The photographed image 120 of (b) is demodulated into a regular image as shown in FIG.

【0013】図2は、カメラ本体112で撮影され、画
像処理部12により量子化されて画像処理部12内のメ
モリ130の各メモリ素子131に各画素として記憶さ
れる円状の撮影画像120の記憶状況を示す図である。
ここで、カメラ本体により撮影されメモリ130に記憶
される画像120は、メモリ130の各メモリ素子と、
90度、180度、270度、360度のいずれかの角
度をなす場合に最大数の画素として各メモリ素子131
に記憶される。また、前記画像120は、メモリ130
の各メモリ素子と、45度、135度、225度、31
5度のいずれかの角度をなす場合に最小数の画素として
各メモリ素子131に記憶される。
FIG. 2 shows a circular photographed image 120 which is photographed by the camera body 112, quantized by the image processing unit 12, and stored as each pixel in each memory element 131 of the memory 130 in the image processing unit 12. It is a figure showing a storage situation.
Here, the image 120 captured by the camera body and stored in the memory 130 includes the respective memory elements of the memory 130,
When the angle is any one of 90 degrees, 180 degrees, 270 degrees, and 360 degrees, each memory element 131 is used as the maximum number of pixels.
Is stored. The image 120 is stored in the memory 130.
, 45 degrees, 135 degrees, 225 degrees, and 31 degrees
When forming an angle of any of 5 degrees, it is stored in each memory element 131 as the minimum number of pixels.

【0014】図2の例では、垂直方向の画素数Aが最大
であり(画素数=5)、これと45度の角度をなす方向
の画素数Bが最小(画素数=4)となる。また、図2に
示すように、円状の撮影画像120の外周と最大画素数
Aを有する方向の線分の交点と、前記外周と最小画素数
Bを有する方向の線分の交点との間を外周円弧120A
とし、円状の撮影画像120の内周(すなわち無効エリ
ア124の外周)と最大画素数Aを有する方向の線分の
交点と、前記内周と最小画素数Bを有する方向の線分の
交点との間を内周円弧120Bとすれば、外周円弧12
0Aの画素数Dが最大となり、内周円弧120Bの画素
数Cは最小となる。
In the example of FIG. 2, the number of pixels A in the vertical direction is the maximum (number of pixels = 5), and the number of pixels B in the direction forming an angle of 45 degrees with this is the minimum (number of pixels = 4). Further, as shown in FIG. 2, the intersection between the outer periphery of the circular captured image 120 and the line segment in the direction having the maximum number of pixels A, and the intersection between the outer periphery and the line segment in the direction having the minimum number of pixels B Is the outer circular arc 120A
And the intersection of a line segment in the direction having the maximum number of pixels A with the inner periphery of the circular photographed image 120 (that is, the outer periphery of the invalid area 124), and the intersection of a line segment in the direction having the minimum number of pixels B with the inner periphery. Is defined as the inner circumferential arc 120B, the outer circumferential arc 12B
The number of pixels D of 0A becomes the maximum, and the number of pixels C of the inner circumferential arc 120B becomes the minimum.

【0015】従って、撮影画像120の外周円弧120
A付近の画像と内周円弧120B付近の画像とでは画素
数が異なり、画像に歪みが生じる。このため、図3に示
す画像処理部12の変換部12Aは、メモリ130の最
小画素数B(垂直方向の画素と45度の角度をなす画素
の数)が最大画素数A(垂直方向の画素数)となるよう
に(すなわち、A=Bとなるように)処理を行い、かつ
内周円弧120Bの画素数C(最小画素数)が外周円弧
120Aの画素数D(最大画素数)となるように(すな
わち、C=Dとなるように)処理を行って画像の歪みを
除去する。そして、さらに図3に示す画像処理部12の
復調部12Bは変換部12Aの処理結果に基づいて、図
1(c)に示すような正規な画像として復調し画像処理
部12内のメモリ140の後述の各メモリ素子141に
記憶する。
Therefore, the outer circumferential arc 120 of the photographed image 120
The number of pixels differs between the image near A and the image near the inner arc 120B, and the image is distorted. For this reason, the conversion unit 12A of the image processing unit 12 shown in FIG. 3 determines that the minimum number of pixels B (the number of pixels that make an angle of 45 degrees with the vertical pixels) of the memory 130 is the maximum number of pixels A (the pixels in the vertical direction). (Ie, A = B), and the number of pixels C (minimum number of pixels) of the inner circular arc 120B becomes the number of pixels D (maximum number of pixels) of the outer circular arc 120A. (Ie, so that C = D) to remove image distortion. Further, the demodulation unit 12B of the image processing unit 12 shown in FIG. 3 demodulates as a normal image as shown in FIG. It is stored in each memory element 141 described later.

【0016】図4は画像処理部12の変換部12Aによ
る具体的な処理の状況を示す説明図である。変換部12
Aは、画像処理部12内のメモリ130の各メモリ素子
131に記憶された撮影画像120の歪みを除去するた
めに撮影画像120の座標変換を行う。この場合、変換
部12Aは、円状の撮影画像120の外周と内周間に水
平または垂直方向の1つのメモリ素子毎(所定数のメモ
リ素子毎であっても良い)に描かれた各同心円と、撮影
画像120の外周に位置する1つのメモリ素子毎(所定
数のメモリ素子毎であっても良い)に撮像画像120の
中心部(すなわち、円状の無効エリア124の中心点
O)から撮像画像120の外周方向に描かれた各線分と
の交点の座標を求める処理を行う。
FIG. 4 is an explanatory diagram showing a specific processing situation by the conversion unit 12A of the image processing unit 12. Conversion unit 12
A performs coordinate transformation of the captured image 120 to remove distortion of the captured image 120 stored in each memory element 131 of the memory 130 in the image processing unit 12. In this case, the conversion unit 12A is arranged between the outer circumference and the inner circumference of the circular captured image 120 for each memory element in the horizontal or vertical direction (may be a predetermined number of memory elements). From the central portion of the captured image 120 (that is, the center point O of the circular invalid area 124) for each one of the memory elements located on the outer periphery of the captured image 120 (or for each of a predetermined number of memory elements). A process of obtaining coordinates of an intersection with each line drawn in the outer peripheral direction of the captured image 120 is performed.

【0017】ここで、前記撮影画像120の内周から外
周の方向に描かれた各同心円を、内周を基点として順次
「0」,「1」,「2」,・・・,「n」とし、かつ前
記中心点Oから撮影画像120の外周方向に描かれた各
線分を、水平方向を基点として順次「0」,「1」,
「2」,・・・,「N」とする。また、前記中心点Oか
ら撮影画像120の内周までの距離をR、各線分間の角
度をΔθ(即ち、垂直方向の解像度を定めるパラメー
タ)、各同心円間の間隔(即ち、水平方向の解像度を定
めるパラメータ)をΔrとすると、線分「1」と同心円
「0」との交点座標(x,y)は、 x=RcosΔθ、y=RsinΔθ となる。
Here, concentric circles drawn in the direction from the inner circumference to the outer circumference of the photographed image 120 are sequentially defined as “0”, “1”, “2”,. And each line segment drawn in the outer peripheral direction of the captured image 120 from the center point O is sequentially set to “0”, “1”,
.., “N”. Further, the distance from the center point O to the inner periphery of the captured image 120 is R, the angle between each line segment is Δθ (that is, a parameter that determines the resolution in the vertical direction), and the interval between concentric circles (that is, the resolution in the horizontal direction is Assuming that the determined parameter is Δr, the coordinates (x, y) of the intersection of the line segment “1” and the concentric circle “0” are x = RcosΔθ and y = RsinΔθ.

【0018】また、線分「1」と同心円「1」との交点
座標(x,y)は、 x=(R+Δr)cosΔθ、y=(R+Δr)sin
Δθ となり、さらに線分「1」と同心円「n」との交点座標
(x,y)は、 x=(R+nΔr)cosΔθ、y=(R+nΔr)s
inΔθ となる。さらにまた、線分「N」と同心円「n」との交
点座標(x,y)は、 x=(R+nΔr)cos(N・Δθ)、 y=(R+nΔr)sin(N・Δθ) となる。
The coordinates of the intersection (x, y) of the line segment “1” and the concentric circle “1” are x = (R + Δr) cosΔθ, y = (R + Δr) sin
Δθ, and the coordinates (x, y) of the intersection of the line segment “1” and the concentric circle “n” are x = (R + nΔr) cosΔθ, y = (R + nΔr) s
inΔθ. Furthermore, the coordinates of the intersection (x, y) between the line segment “N” and the concentric circle “n” are x = (R + nΔr) cos (N · Δθ) and y = (R + nΔr) sin (N · Δθ).

【0019】このようにして、変換部12Aにおいて、
メモリ130に記憶されている撮影画像120の座標が
全て求められた後、画像処理部12の復調部12Bは変
換部12Aにより求められた座標をもとに、撮影画像1
20を、画像処理部12内のメモリ140に図5に示す
ようなパノラマに展開し、正規な画像に復調する。
As described above, in the conversion unit 12A,
After all the coordinates of the captured image 120 stored in the memory 130 have been obtained, the demodulation unit 12B of the image processing unit 12 uses the captured image 1 based on the coordinates obtained by the conversion unit 12A.
20 is developed into a panorama as shown in FIG. 5 in the memory 140 in the image processing unit 12 and demodulated into a normal image.

【0020】ここで、図5に示すメモリ140の各メモ
リ素子141の各画素は、変換部12Aにより求められ
た各交点座標に相当しており、復調部12Bは、変換部
12Aにおいて求められた図4の例えば線分「1」と同
心円「0」との交点座標(RcosΔθ,RsinΔ
θ)の画像データを、図5のメモリ140のN=1,n
=0で示すアドレスのメモリ素子に記憶する。また、復
調部12Bは、変換部12Aにおいて求められた図4の
例えば線分「1」と同心円「1」との交点座標((R+
Δr)cosΔθ,(R+Δr)sinΔθ)の画像デ
ータを、図5のメモリ140のN=1,n=1で示すア
ドレスのメモリ素子に記憶する。
Here, each pixel of each memory element 141 of the memory 140 shown in FIG. 5 corresponds to each intersection coordinate obtained by the conversion unit 12A, and the demodulation unit 12B is obtained by the conversion unit 12A. For example, the coordinates (RcosΔθ, RsinΔ) of the intersection of the line segment “1” and the concentric circle “0” in FIG.
θ) is stored in the memory 140 shown in FIG.
= 0 is stored in the memory element at the address indicated by 0. Further, the demodulation unit 12B calculates the intersection coordinates ((R + R) of, for example, the line segment “1” and the concentric circle “1” in FIG.
The image data of (Δr) cosΔθ, (R + Δr) sinΔθ) is stored in the memory element at the address indicated by N = 1, n = 1 in the memory 140 of FIG.

【0021】さらに、復調部12Bは、変換部12Aに
おいて求められた図4の例えば線分「1」と同心円
「n」との交点座標((R+nΔr)cosΔθ,(R
+nΔr)sinΔθ)の画像データを、図5のメモリ
140のN=1,n=nで示すアドレスのメモリ素子に
記憶する。さらにまた、復調部12Bは、変換部12A
において求められた図4の例えば線分「N」と同心円
「n」との交点座標((R+nΔr)cos(N・Δ
θ),(R+nΔr)sin(N・Δθ))の画像デー
タを、図5のメモリ140のN=N,n=nで示すアド
レスのメモリ素子に記憶する。
Further, the demodulation unit 12B calculates the intersection coordinates ((R + nΔr) cosΔθ, (R) of, for example, the line segment “1” and the concentric circle “n” in FIG.
The image data of (+ nΔr) sinΔθ) is stored in the memory element of the memory 140 in FIG. Furthermore, the demodulation unit 12B includes a conversion unit 12A
4, the intersection coordinates ((R + nΔr) cos (N · Δ) of the line segment “N” and the concentric circle “n” in FIG.
θ), (R + nΔr) sin (N · Δθ)) is stored in the memory element of the memory 140 of FIG. 5 at the address indicated by N = N, n = n.

【0022】ここで、n,Nは変数であり、復調部12
Bは、1つのNについてnが「0」から「n」まで順次
画像展開処理を行い、それが終了すると次のNについて
同様にnが「0」から「n」まで順次画像展開処理を行
うようにして、N・Δθが360゜になるまで繰り返し
同様の画像展開処理を実行する。このようにして、メモ
リ140には、円錐鏡111で反射されカメラ本体11
2で撮影された歪みのある全方位の画像120が正規な
全方位の画像として記憶され、したがって自動車画像1
21,ビル画像122及び樹木画像123も図5に示す
ような正規な形に復元される。
Here, n and N are variables, and the demodulation unit 12
B sequentially performs image development processing for n from “0” to “n” for one N, and when the processing is completed, similarly performs image development processing for n for “N” from “0” to “n”. In this manner, the same image development processing is repeatedly executed until N · Δθ becomes 360 °. In this manner, the memory 140 reflects the light reflected by the conical mirror 111 into the camera body 11.
The distorted omnidirectional image 120 taken at 2 is stored as a regular omnidirectional image, and thus the car image 1
The building image 122, the tree image 123, and the tree image 123 are also restored to their normal forms as shown in FIG.

【0023】こうして、街頭設置部1A内の全方位カメ
ラ11により撮影され画像処理部12により処理された
画像は、図12の伝送制御部17により伝送路インタフ
ェース18を介して画面作成センタ2に送られる。画面
作成センタ2のインタフェース21A内のデータベース
作成更新部23は、画像処理部12により処理された画
像を入力すると、この画像に街頭設置部1A内の温度セ
ンサ13からの温度情報を付加し、かつ街頭設置部1A
内の風向・風速センサ15からの風向・風速情報を付加
する。また、データベース作成更新部23は、画像処理
部12により処理された前記画像と、前記画像中の個別
画像とその座標とが関連づけられてリンクテーブル24
に予め登録されているリンク用座標データとを、1対の
データとする。画面作成センタ2の制御部30は、地域
情報収集解析部26Aに蓄積されている情報提供者10
Aからの地域情報を入力すると、その地域情報収集解析
部26Aに記憶されているリンク先情報に基づいて前記
地域情報を前記1対のデータにリンクさせデータベース
28に記憶する。
The image photographed by the omnidirectional camera 11 in the street setting section 1A and processed by the image processing section 12 is transmitted to the screen creation center 2 via the transmission path interface 18 by the transmission control section 17 in FIG. Can be Upon input of the image processed by the image processing unit 12, the database creation / update unit 23 in the interface 21A of the screen creation center 2 adds temperature information from the temperature sensor 13 in the street installation unit 1A to this image, and Street section 1A
The wind direction / wind speed information from the inside wind direction / wind speed sensor 15 is added. The database creation / updating unit 23 also links the image processed by the image processing unit 12, the individual image in the image, and the coordinates thereof to a link table 24.
And link coordinate data registered in advance as a pair of data. The control unit 30 of the screen creation center 2 uses the information provider 10 stored in the local information collection and analysis unit 26A.
When the area information from A is input, the area information is linked to the pair of data based on the link destination information stored in the area information collection / analysis unit 26A and stored in the database 28.

【0024】なお、街頭設置部1B内の全方位カメラ1
1により撮影され画像処理部12により処理された画像
についても、インタフェース21B内のデータベース作
成更新部23により同様に処理され、さらに、街頭設置
部1Bの情報提供者10Bにより提供され地域情報収集
解析部26Bに蓄積された地域情報とリンクされてデー
タベース28に記憶される。
The omnidirectional camera 1 in the street installation section 1B
1 and processed by the image processing unit 12 in the same manner by the database creation / updating unit 23 in the interface 21B, and further provided by the information provider 10B of the street installation unit 1B and the local information collection / analysis unit. The information is linked with the regional information stored in 26B and stored in the database 28.

【0025】図6は、データベース作成更新部23から
データベース28に記憶された1対のデータを示す図で
ある。このうち、図6(a)はデータベース作成更新部
23により処理された全方位の風景画像281を示す
図、図6(b)は風景画像281中の各画像領域とその
座標〜とが関連づけられたリンク用座標データ28
2を示す図である。ここで、リンク用座標データ282
は、図6(a)の風景画像281内の各画像から予め所
定の方法でその輪郭が抽出されその輪郭画像の領域内が
風景画像281の画像の座標として定められている。こ
のため、データベース28内の風景画像281の記憶領
域と、リンク用座標データ282の記憶領域は同一の記
憶容量を有し、データベース28の風景画像281の画
像アドレスとリンク用座標データ282の輪郭画像のア
ドレスは互いに対応している。
FIG. 6 is a diagram showing a pair of data stored in the database 28 from the database creating / updating unit 23. 6A shows an omnidirectional landscape image 281 processed by the database creation / updating unit 23, and FIG. 6B associates each image region in the landscape image 281 with its coordinates. Link coordinate data 28
FIG. Here, link coordinate data 282
In FIG. 6A, the outline is extracted in advance from each image in the landscape image 281 by a predetermined method, and the area of the outline image is defined as the coordinates of the image of the landscape image 281. For this reason, the storage area of the landscape image 281 in the database 28 and the storage area of the link coordinate data 282 have the same storage capacity, and the image address of the landscape image 281 in the database 28 and the outline image of the link coordinate data 282 are used. Address correspond to each other.

【0026】ここで、例えば情報提供者10Aから予め
ネットワーク3に提供されユーザ端末4Aに表示されて
いるホームページ等の情報画面、または予め情報提供者
10Aから提供された情報に基づいて作成されユーザ端
末4Aに表示されている情報画面がユーザによりアクセ
スされると、ネットワーク3を介して画面作成センタ2
にそのアクセス情報が伝達される。この場合、画面作成
センタ2の制御部30はデータベース28から該当の画
像を取り出してネットワーク3を介しユーザ端末4Aに
送信する。この結果、ユーザ端末4Aの図示しない表示
部には全方位カメラ11により時々刻々撮影された図6
(a)に示す風景画像281が表示される。
Here, for example, an information screen such as a homepage provided from the information provider 10A to the network 3 in advance and displayed on the user terminal 4A, or a user terminal created based on information provided in advance from the information provider 10A. When the information screen displayed on 4A is accessed by the user, the screen creation center 2
The access information is transmitted to. In this case, the control unit 30 of the screen creation center 2 takes out the relevant image from the database 28 and sends it to the user terminal 4A via the network 3. As a result, the display unit (not shown) of the user terminal 4A displays the momentary photograph of FIG.
A landscape image 281 shown in (a) is displayed.

【0027】その後、ユーザがユーザ端末4Aの表示部
に表示中の部分画像である店舗(レストランやまびこ)
をクリックすると、そのクリック座標情報が画像作成セ
ンタ2に送られる。この場合、画像作成センタ2の制御
部30は、図6(b)のリンク用座標データ282の中
の前記店舗の画像の座標がクリックされたと判断す
る。そして、そのリンク用座標データ282の前記座標
に対応してデータベース28に記憶されている地域情
報を取り出してユーザ端末4Aに送り、ユーザ端末4A
の表示部に表示させる。
After that, the store (restaurant or map) which is a partial image displayed on the display unit of the user terminal 4A by the user.
When clicked, the click coordinate information is sent to the image creation center 2. In this case, the control unit 30 of the image creation center 2 determines that the coordinates of the image of the store in the link coordinate data 282 in FIG. 6B have been clicked. Then, the local information stored in the database 28 corresponding to the coordinates of the link coordinate data 282 is extracted and sent to the user terminal 4A.
Is displayed on the display unit.

【0028】図7は、例えば情報提供者10Aから提供
されユーザ端末4Aに表示される地域情報(即ち、情報
提供者10Aから提供される情報ページの内容)を示す
図であり、図7中の地域情報291は、図6(b)のリ
ンク用座標データ282の座標がクリックされたとき
に表示される前記店舗(レストランやまびこ)の情報で
ある。また、図7中の地域情報292,293は、図6
(b)のリンク用座標データ282の座標,がそれ
ぞれクリックされたときに表示される情報を示し、この
情報は情報提供者10Aなどから同様に提供され、座標
,と関連づけてデータベース28に記憶されてい
る。
FIG. 7 is a diagram showing, for example, regional information provided by the information provider 10A and displayed on the user terminal 4A (that is, the contents of the information page provided by the information provider 10A). The area information 291 is the information of the shop (restaurant or Mabiko) displayed when the coordinates of the link coordinate data 282 in FIG. 6B are clicked. The area information 292 and 293 in FIG.
(B) indicates information displayed when the coordinates of the link coordinate data 282 are clicked, and this information is similarly provided from the information provider 10A or the like, and is stored in the database 28 in association with the coordinates. ing.

【0029】このように、全方位カメラ11で時々刻々
撮影され処理された各画像と、各画像の座標を示すリン
ク用座標データとを1対のデータとしてデータベース2
8に記憶するとともに、前記リンク用座標データの各座
標に関連づけて、全方位カメラ11の撮影範囲内に存在
する情報提供者からの地域情報をデータベース28に記
憶し、ユーザが前記情報提供者から提供されユーザ端末
に表示されている例えばホームページの情報画面をアク
セスすると、データベース28内の該当撮影画像をユー
ザ端末に送って表示させる一方、ユーザが表示されてい
る撮影画像中の1つの画像をクリックすると、その画像
に対応するリンク用座標データの座標に基づき該当の地
域情報をデータベース28から取り出しユーザ端末に表
示させるようにしたものである。
As described above, each image photographed and processed every moment by the omnidirectional camera 11 and the coordinate data for link indicating the coordinates of each image are used as a pair of data in the database 2.
8 and also stores in the database 28 regional information from the information provider existing within the shooting range of the omnidirectional camera 11 in association with each coordinate of the link coordinate data. When the user accesses the information screen of, for example, a homepage provided and displayed on the user terminal, the corresponding photographed image in the database 28 is sent to the user terminal for display, and the user clicks one image in the displayed photographed image. Then, based on the coordinates of the link coordinate data corresponding to the image, the corresponding area information is retrieved from the database 28 and displayed on the user terminal.

【0030】ところで、ユーザ端末の中にはデータベー
ス28中の全方位画像281の全ての画像及び全てのリ
ンク用座標データ282を配信できないものもある。こ
のような場合は、データベース28の全方位画像281
及びリンク用座標データ282の各記憶領域のアドレス
を例えばリングカウンタによりアクセスし、360度の
全方位画像281及びこれに対応するリンク用座標デー
タ282をそれぞれ、例えば1度から360度の方向に
順次1度毎に読み出すとともに、360度に位置する画
像が読み出されたら次に再び1度から360度の方向に
読み出せるようにする。そして、ユーザ端末の図示しな
いスクロールキーが操作されると、前記リングカウンタ
を介してデータベース28の全方位画像281の領域を
アクセスすることにより、図6(a)に示す風景画像を
図中、右方向または左方向(即ち、1度から360度側
方向、または360度から1度側の方向)に順次スクロ
ールさせ、データベース28中の全方位画像281の全
ての画像を表示できるようにする。そして、このときデ
ータベース28内のリンク用座標データ282の領域も
同時に連動してシフトさせることにより、図6(b)に
示すリンク用座標データ282もスクロールさせる。
Some user terminals cannot distribute all images of the omnidirectional image 281 in the database 28 and all link coordinate data 282. In such a case, the omnidirectional image 281 of the database 28
The address of each storage area of the link coordinate data 282 is accessed by, for example, a ring counter, and the 360-degree omnidirectional image 281 and the corresponding link coordinate data 282 are sequentially stored in the direction of, for example, 1 to 360 degrees. The image is read out once every time, and when the image located at 360 degrees is read out, it can be read out again in the direction from 1 degree to 360 degrees. Then, when a scroll key (not shown) of the user terminal is operated, the area of the omnidirectional image 281 of the database 28 is accessed via the ring counter, so that the landscape image shown in FIG. In this case, the user sequentially scrolls in the leftward or rightward direction (that is, the direction from 1 degree to 360 degrees or the direction from 360 degrees to 1 degree) so that all the images of the omnidirectional images 281 in the database 28 can be displayed. At this time, the link coordinate data 282 shown in FIG. 6B is also scrolled by simultaneously and simultaneously shifting the area of the link coordinate data 282 in the database 28.

【0031】即ち、ユーザ端末に全ての全方位画像28
1及び全てのリンク用座標データ282が記憶できない
場合は、画面作成センタ2の制御部30は、データベー
ス28内の図6(a)に示す全方位画像281のうち、
まずユーザ端末に記憶可能な所定量の部分全方位画像2
81A及びこの部分全方位画像281Aに対応する図6
(b)のリンク用座標データ282Aを取り出してユー
ザ端末に送信し表示させるとともに、送信したデータベ
ース28内の部分全方位画像のアドレス情報を内蔵メモ
リに記憶する。こうして、ユーザ端末にデータベース2
8内の部分全方位画像281Aが表示されているとき
に、ユーザ端末のスクロールキーが操作されると、その
操作情報がネットワーク3を介して画面作成センタ2へ
送られる。
That is, all omnidirectional images 28 are stored in the user terminal.
1 and all the link coordinate data 282 cannot be stored, the control unit 30 of the screen creation center 2 selects one of the omnidirectional images 281 shown in FIG.
First, a predetermined amount of partial omnidirectional image 2 that can be stored in the user terminal 2
FIG. 6 corresponding to 81A and the partial omnidirectional image 281A.
The link coordinate data 282A of (b) is taken out and transmitted to the user terminal for display, and the transmitted address information of the partial omnidirectional image in the database 28 is stored in the built-in memory. Thus, the database 2 is stored in the user terminal.
When the scroll key of the user terminal is operated while the partial omnidirectional image 281A in 8 is displayed, the operation information is sent to the screen creation center 2 via the network 3.

【0032】この場合、画面作成センタ2の制御部30
はデータベース28の全方位画像281の記憶領域を、
現在ユーザ端末に表示されている部分全方位画像281
Aの中心領域Oのアドレスを起点として、図6(a)に
示すように例えば右方向に一定容量M分シフト(スクロ
ール)し、そのシフトM分を含む所定量の部分全方位画
像をデータベース28から取り出してネットワーク3を
介しユーザ端末に送り表示させ、かつ送信したデータベ
ース28内の部分全方位画像のアドレス情報を内蔵メモ
リに記憶する。また、このとき制御部30は、データベ
ース28のリンク用座標データ282の領域を前記全方
位画像281の部分シフトに連動して図6(b)に示す
ように右方向に前記一定容量M分シフトし、所定量の部
分リンク用座標データを併せて送信する。
In this case, the control unit 30 of the screen creation center 2
Represents the storage area of the omnidirectional image 281 of the database 28,
Partial omnidirectional image 281 currently displayed on the user terminal
Starting from the address of the central region O of A, as shown in FIG. 6 (a), for example, the image is shifted (scrolled) to the right by a predetermined capacity M and a predetermined amount of partial omnidirectional image including the shift M is stored in the database 28. And sends it to the user terminal via the network 3 for display, and stores the transmitted address information of the partial omnidirectional image in the database 28 in the built-in memory. At this time, the control unit 30 shifts the area of the link coordinate data 282 of the database 28 rightward by the fixed capacity M as shown in FIG. 6B in conjunction with the partial shift of the omnidirectional image 281. Then, a predetermined amount of partial link coordinate data is transmitted together.

【0033】このようにして、ユーザ端末にはデータベ
ース28中の全方位画像281の全てが表示可能になる
とともに、前記スクロール操作によってはじめて表示さ
れた画像をクリックした場合でも、ユーザ端末は、前記
全方位画像281と連動して一定容量分シフトされた対
応するリンク用座標データ282を得ているため、画面
作成センタ2の制御部30は的確にリンク先を指示する
ことができる。
In this way, the user terminal can display all of the omnidirectional images 281 in the database 28, and even if the image displayed for the first time by the scroll operation is clicked, the user terminal can display the omnidirectional image 281. Since the corresponding link coordinate data 282 shifted by a certain capacity in conjunction with the azimuth image 281 has been obtained, the control unit 30 of the screen creation center 2 can accurately instruct the link destination.

【0034】また、ユーザ端末の表示部には、データベ
ース28の全方位画像281の全ての画像は表示できな
いが、ユーザ端末の図示しないメモリに前記全方位画像
281の全ての画像及びリンク用座標データ282の全
てが記憶可能な場合は、次のように構成することもでき
る。この場合、ユーザ端末の前記全方位画像281を記
憶するメモリのアドレスはデータベース28の全方位画
像の記憶領域と同様、リングカウンタによりアクセスさ
れるものとし、かつデータベース28の全方位画像記憶
領域の各アドレスはユーザ端末のメモリの各アドレスに
対応しているものとする。
Although the display section of the user terminal cannot display all the images of the omnidirectional image 281 of the database 28, all the images of the omnidirectional image 281 and the coordinate data for link are stored in a memory (not shown) of the user terminal. If all of 282 can be stored, the following configuration can be adopted. In this case, the address of the memory for storing the omnidirectional image 281 of the user terminal is assumed to be accessed by a ring counter, similarly to the omnidirectional image storage area of the database 28, and each of the omnidirectional image storage areas of the database 28 The address corresponds to each address in the memory of the user terminal.

【0035】このような前提をもとに、ユーザ画面作成
センタ2の制御部30は、まずユーザ端末にデータベー
ス28の全方位画像281及びリンク用座標データ28
2を送信する。すると、ユーザ端末ではこれらをメモリ
に記憶するとともに、任意の開始部から画面に表示でき
るだけの部分全方位画像(例えば図6(a)の部分全方
位画像281A)をメモリから取り出して表示部に表示
する一方、表示している部分全方位画像に関連づけてリ
ンク用座標データのアドレスを記憶する。
Based on this premise, the control unit 30 of the user screen creation center 2 first sends the omnidirectional image 281 of the database 28 and the link coordinate data 28 to the user terminal.
Send 2. Then, in the user terminal, these are stored in the memory, and a partial omnidirectional image (for example, the partial omnidirectional image 281A in FIG. 6A) that can be displayed on the screen from an arbitrary start portion is extracted from the memory and displayed on the display unit. On the other hand, the address of the link coordinate data is stored in association with the displayed partial omnidirectional image.

【0036】このような状況下において、ユーザ端末側
でスクロール操作が行われると、ユーザ端末は自身のメ
モリのアドレスを一定容量M分シフトし、シフトした容
量M分を含む部分全方位画像をメモリから取り出して表
示する。このとき、ユーザ端末は表示している部分全方
位画像に関連づけて記憶しているリンク用座標データの
アドレスを更新する。このように、ユーザ端末の表示部
に全方位画像281内の全画像が表示できない場合で
も、ユーザ端末のメモリをシフトすることにより、ユー
ザ端末側で全方位画像281の全ての画像が表示でき
る。この結果、画面作成センタ2では、ユーザ端末側で
スクロール操作を行う毎に部分全方位画像を配信する必
要がなく、システムを効率良く使用できる。
In such a situation, when a scroll operation is performed on the user terminal side, the user terminal shifts the address of its own memory by the fixed capacity M and stores the partial omnidirectional image including the shifted capacity M in the memory. And display it. At this time, the user terminal updates the address of the link coordinate data stored in association with the displayed partial omnidirectional image. As described above, even when all the images in the omnidirectional image 281 cannot be displayed on the display unit of the user terminal, all the images of the omnidirectional image 281 can be displayed on the user terminal side by shifting the memory of the user terminal. As a result, the screen creation center 2 does not need to distribute a partial omnidirectional image every time the user terminal performs a scroll operation, and can use the system efficiently.

【0037】図8は、図12に示す街頭設置部1の全方
位カメラ11の近傍に設置される風向・風速センサ15
の形状を示す図である。この風向・風速センサ15は、
4個の各圧力センサ15A〜15Dからなり、各圧力セ
ンサ15A〜15Dは円形状の取付部150の外周にそ
れぞれ90度毎に取り付けられる。こうして取付部15
0に90度の間隔をもって取り付けられた各圧力センサ
15A〜15Dが、図9に示すように、それぞれ北
(N)、東(E)、南(S)、西(W)の方向に向くよ
う取付部150を設置すると、図9に示す北東方向の風
力Fはそれぞれ北方向及び東方向を向く各圧力センサ1
5A、15Bのみで受け、それぞれ南方向及び西方向を
向く他の圧力センサ15C,15Dは風力Fを受けな
い。
FIG. 8 shows a wind direction / wind speed sensor 15 installed near the omnidirectional camera 11 in the street installation section 1 shown in FIG.
It is a figure showing the shape of. This wind direction / wind speed sensor 15
The pressure sensor 15 includes four pressure sensors 15A to 15D. The pressure sensors 15A to 15D are mounted on the outer periphery of the circular mounting portion 150 at every 90 degrees. Thus, the mounting portion 15
As shown in FIG. 9, the pressure sensors 15A to 15D attached at 90 ° intervals are oriented in the directions of north (N), east (E), south (S), and west (W), respectively. When the mounting portion 150 is installed, the wind force F in the northeast direction shown in FIG.
The other pressure sensors 15C and 15D, which are received only by 5A and 15B, respectively, and directed in the south and west directions, do not receive the wind F.

【0038】この場合、北(N)方向を基準とし、この
北(N)方向と前記北東方向の風力Fの方向とのなす角
度をθ(即ち、風向θ)とすると、北(N)方向を向く
圧力センサ15Aの感知面の受ける風力はFcosθと
なる。ここで、各圧力センサ15A〜15Dの各ゲイン
をそれぞれ等しくkとすると、圧力センサ15Aの検出
出力OUT1は OUT1=k・Fcosθ (1) となる。また、東(E)を向く圧力センサ15Bの検出
出力OUT2は、 OUT2=k・Fsinθ (2) となる。
In this case, when the angle between the north (N) direction and the direction of the wind F in the northeast direction is defined as θ (that is, the wind direction θ) with reference to the north (N) direction, the north (N) direction The wind force received by the sensing surface of the pressure sensor 15A facing the direction becomes Fcos θ. Here, assuming that the gains of the pressure sensors 15A to 15D are respectively equal to k, the detection output OUT1 of the pressure sensor 15A is as follows: OUT1 = k · Fcos θ (1) Further, the detection output OUT2 of the pressure sensor 15B facing east (E) is as follows: OUT2 = k · Fsin θ (2)

【0039】ここで、式(1)、(2)から、 OUT1/cosθ=OUT2/sinθ=k・F (3) となり、さらに式(3)から、 tanθ=OUT2/OUT1 (4) となる。Here, from the equations (1) and (2), OUT1 / cos θ = OUT2 / sin θ = k · F (3), and from the equation (3), tan θ = OUT2 / OUT1 (4)

【0040】そして、式(4)から、風向θは θ=tan-1OUT2/OUT1 (5) として求められ、かつ、式(5)で求めた風向θを、式
(1)を変形した式(6)、即ち、 F=OUT1/k・cosθ (6) に代入することにより、風速(即ち、風力)Fを算出す
る。このような、風速Fの計算を他の圧力センサ(この
例では、圧力センサ15B)についても同様に行い、計
算の結果、最も値の大きい風速Fを採用する。
From equation (4), the wind direction θ is obtained as θ = tan −1 OUT2 / OUT1 (5), and the wind direction θ obtained by equation (5) is obtained by modifying equation (1). (6) That is, the wind speed (ie, wind power) F is calculated by substituting into F = OUT1 / k · cos θ (6). Such calculation of the wind speed F is similarly performed for the other pressure sensors (the pressure sensor 15B in this example), and as a result of the calculation, the wind speed F having the largest value is adopted.

【0041】図10は各圧力センサ15A〜15Dの各
出力から風向及び風速を算出する風向・風速解析部16
の構成を示す図であり、風向・風速解析部16は、各圧
力センサ15A〜15Dから出力されたアナログ信号を
デジタル信号に変換するA/D変換器161〜164
と、A/D変換器161〜164のデジタル信号を入力
して前述した計算を行い、風向及び風速情報として出力
するCPU160とからなる。そして、CPU160に
より演算された風向及び風速情報は図12に示す伝送制
御部17により、伝送路インタフェース18を介して画
面作成センタ2に送られ、この風向・風速センサ15の
近傍に固定配置された全方位カメラ11の撮影画像と合
成され、上述したようにデータベース28に記憶される
とともに、ユーザに提供される。
FIG. 10 shows a wind direction / wind speed analysis unit 16 for calculating the wind direction and wind speed from each output of each of the pressure sensors 15A to 15D.
And a wind direction / wind speed analyzer 16 converts A / D converters 161 to 164 that convert analog signals output from the pressure sensors 15A to 15D into digital signals.
And a CPU 160 that inputs the digital signals of the A / D converters 161 to 164, performs the above-described calculation, and outputs the information as wind direction and wind speed information. Then, the wind direction and wind speed information calculated by the CPU 160 is sent to the screen creation center 2 via the transmission path interface 18 by the transmission control unit 17 shown in FIG. 12, and is fixedly arranged near the wind direction / wind speed sensor 15. The image is synthesized with the image captured by the omnidirectional camera 11, stored in the database 28 as described above, and provided to the user.

【0042】図11を参照して、風向・風速解析部16
のCPU160による風向・風速の演算についてさらに
具体的に説明する。図11(a)に示すように、4つの
各圧力センサ15A、15B、15C、15Dをそれぞ
れ90度毎に配置し、4つの圧力センサの検出出力から
風の風速及び方向を算出する。ここで、各圧力センサ1
5A、15B、15C、15Dは比較的狭い範囲に配置
されているため、検出対象となる風は各センサに一様に
当たる。
Referring to FIG. 11, wind direction / wind speed analysis unit 16
The calculation of the wind direction / wind speed by the CPU 160 will be described more specifically. As shown in FIG. 11A, the four pressure sensors 15A, 15B, 15C, and 15D are arranged at 90 ° intervals, and the wind speed and direction of the wind are calculated from the detection outputs of the four pressure sensors. Here, each pressure sensor 1
Since 5A, 15B, 15C, and 15D are arranged in a relatively narrow range, the wind to be detected uniformly hits each sensor.

【0043】いま、風力Fの風が、図11(a)の基軸
(即ち、センサ15Aと15Cを結ぶ軸)に対し20度
の角度をもって一様に当たっているものとすると、セン
サ15Aには図11(b)に示すように20度の角度を
もって当たる。この場合、センサ15Aが感知する圧力
は、その水平成分である F・cos20゜=F×0.939 (7) となる。ここで、Fを一定とすると、圧力センサ15A
において式(7)に示す値と同一値となるのは、上記基
軸に対し160度の角度をもった風が当たった場合のみ
である。
Now, assuming that the wind of the wind F is uniformly hitting the base axis of FIG. 11A (ie, the axis connecting the sensors 15A and 15C) at an angle of 20 degrees, the sensor 15A has It hits at an angle of 20 degrees as shown in (b). In this case, the pressure sensed by the sensor 15A is the horizontal component F · cos20 ゜ = F × 0.939 (7). Here, assuming that F is constant, the pressure sensor 15A
In the above, the value which is the same as the value shown in the equation (7) is obtained only when a wind having an angle of 160 degrees with respect to the base axis is applied.

【0044】一方、圧力センサ15Dが感知する圧力
は、図11(c)に示すように、 F・cos(−70゜)=F×0.342 (8) となる。ここで、圧力センサ15Dにおいて式(8)に
示す値と同一値となるのは、上記基軸に対し110度の
角度をもった風が当たった場合のみである。この圧力セ
ンサ15Dにおける110度という値は、前記圧力セン
サ15Aの160度という値と一致せず、したがってこ
の場合、圧力センサ15Aの出力値と圧力センサ15D
の出力値の比から風向を算出することが可能になる。ま
た、この場合、各圧力センサ15A,15Dの出力の大
きさから本来の風の風力(風速)Fを算出することがで
きる。
On the other hand, the pressure sensed by the pressure sensor 15D is F · cos (−70 °) = F × 0.342 (8) as shown in FIG. Here, the pressure sensor 15D has the same value as the value shown in Expression (8) only when the wind having an angle of 110 degrees with respect to the base axis hits. The value of 110 degrees in the pressure sensor 15D does not match the value of 160 degrees of the pressure sensor 15A, and in this case, the output value of the pressure sensor 15A and the pressure sensor 15D
It is possible to calculate the wind direction from the ratio of the output values. In this case, the wind power (wind speed) F of the original wind can be calculated from the magnitude of the output of each of the pressure sensors 15A and 15D.

【0045】なお、各圧力センサ15A〜15Dは、そ
れぞれその感知面に対し0度または180度の角度をも
った風が当たってもその検出出力を生じない。したがっ
て、図11(d)のように例えば基軸に対し水平に当た
る風の風力Fは、圧力センサ15B〜15Dでは感知さ
れず基軸に垂直に配置された1つの圧力センサ15Aの
みで検出することができる。なお、このとき圧力センサ
15Aの裏側に位置する圧力センサ15Cの感知面で
は、前記風力Fによる負圧を感知するが、その負圧を精
度よく検知して出力できるようなセンサを用いれば、さ
らに精度の高い風向・風速センサ15を提供できる。
Each of the pressure sensors 15A to 15D does not produce a detection output even when wind having an angle of 0 or 180 degrees hits its sensing surface. Therefore, as shown in FIG. 11D, for example, the wind power F of the wind hitting the base axis horizontally can not be detected by the pressure sensors 15B to 15D but can be detected by only one pressure sensor 15A arranged perpendicular to the base axis. . At this time, on the sensing surface of the pressure sensor 15C located on the back side of the pressure sensor 15A, the negative pressure due to the wind force F is sensed. However, if a sensor capable of accurately detecting and outputting the negative pressure is used, A highly accurate wind direction / wind speed sensor 15 can be provided.

【0046】図11(d)の例は、圧力センサ15Aに
対し垂直に風が当たり圧力センサ15Aのみで風を検知
する場合の例であり、このように圧力センサの感知面に
対し垂直(90度)に風が当たった場合にその圧力セン
サは最大の検知出力を発生する。次に圧力センサ15A
に対し角度をもった風が当たる場合を考える。圧力セン
サ15Aの感知面に対し図11(e)に示すような角度
で風が当たった場合、その角度が0度〜180度の範囲
にある感知面を有する圧力センサ15Bが検出出力を発
生し、0度〜180度の範囲外にある感知面を有する圧
力センサ15C、15Dは検出出力を発生しない。従っ
て、1つまたは2つの圧力センサで風向・風力を測定す
ることができる。このことは全ての圧力センサについて
も同様であり、この結果、360度全ての方向からの風
を測定することができる。即ち、4つの圧力センサ15
A〜15Dをそれぞれ90度毎の角度をもって配置する
ことにより360度全ての方向からの風を測定すること
ができる。このようにこの風向・風力センサ15は、従
来センサのように可動部分が無いため信頼性が向上し、
したがってメンテナンスが不要となり、無人の場所に長
期間設置できる。
FIG. 11D shows an example in which the wind is applied perpendicularly to the pressure sensor 15A and the wind is detected only by the pressure sensor 15A. The pressure sensor generates the maximum detection output when the wind hits (degree). Next, the pressure sensor 15A
Consider a case in which an angled wind hits. When the wind strikes the sensing surface of the pressure sensor 15A at an angle as shown in FIG. 11E, the pressure sensor 15B having the sensing surface whose angle is in the range of 0 to 180 degrees generates a detection output. , 0C to 180D, the pressure sensors 15C and 15D having a sensing surface outside the range do not generate a detection output. Therefore, the wind direction / wind force can be measured by one or two pressure sensors. This is the same for all pressure sensors. As a result, wind from all directions of 360 degrees can be measured. That is, four pressure sensors 15
By arranging A to 15D at an angle of 90 degrees, winds from all directions of 360 degrees can be measured. As described above, since the wind direction / wind sensor 15 has no movable parts unlike the conventional sensor, the reliability is improved,
Therefore, no maintenance is required, and it can be installed in an unmanned place for a long time.

【0047】なお、本実施の形態では、4つの圧力セン
サ15A〜15Dをそれぞれ90度毎の角度をもって配
置し、それぞれ4つの各圧力センサ15A〜15Dの感
知面で風力を感知し風向・風速を測定するようにした
が、最低限4つのセンサを設ければ良く、5つ以上のセ
ンサを設けて各センサをそれぞれ均等な角度をもって配
置し測定させるようにしても良い。また、本センサは風
力の測定に限定されるものではなく、他の流体、即ちガ
スなどの気体や、水などの液体の流速、流量及びその方
向の測定に同様に適用することができる。
In this embodiment, the four pressure sensors 15A to 15D are arranged at an angle of 90 degrees, and the wind direction and wind speed are detected by sensing the wind force on the sensing surfaces of the four pressure sensors 15A to 15D. Although the measurement is performed, it is sufficient that at least four sensors are provided, and five or more sensors may be provided, and the sensors may be arranged at equal angles and measured. In addition, the present sensor is not limited to the measurement of wind force, but can be similarly applied to the measurement of the flow velocity, flow rate, and direction of another fluid, that is, a gas such as a gas, or a liquid such as water.

【0048】[0048]

【発明の効果】以上説明したように本発明は、周囲から
の入射光を反射光として出力する円錐形状のミラーと、
ミラーからの反射光を入力して撮影することにより周囲
の全方位映像を撮影するカメラ部と、画像処理部とを備
え、画像処理部は、カメラ部により撮影された円状の全
方位撮影画像を方形状の全方位画像に復調するようにし
たので、1台のカメラで全方位の撮影が可能となり、し
たがって装置を経済的に構成できるとともに、各撮影画
像の接続部分に不整合が生じるという問題を未然に防止
できる。また、画像処理部は、複数のメモリ素子が縦横
に配置され撮影画像を記憶する第1のメモリと、複数の
メモリ素子が縦横に配置された第2のメモリと、変換部
と、復調部とを備え、変換部は第1のメモリの撮影画像
の各座標を第2のメモリの各メモリ素子の座標に関連づ
けて変換する一方、復調部は、変換部により変換された
第1のメモリの撮影画像の各座標の画像データを第2の
メモリの各メモリ素子に記憶するようにしたので、撮影
画像を歪みのない全方位画像に容易に復調できる。ま
た、第1のメモリに記憶された撮影画像の各座標を第2
のメモリの各メモリ素子の座標に変換するときには、変
換部は、第1のメモリの撮影画像の中心部を中心とし、
内周部から外周部の方向に所定の間隔で順次配置された
複数の同心円と、中心部から外周部の方向に所定の角度
で順次配置された複数の線分との交点の座標を求め、か
つ復調部は、前記同心円を縦軸とするとともに前記線分
を横軸とした座標で示される第2のメモリのメモリ素子
に、変換部により変換された第1のメモリの座標の画像
データを記憶するようにしたので、簡単かつ容易に座標
変換を行って、第2のメモリに方形状の全方位画像を生
成できる。
As described above, the present invention provides a conical mirror that outputs incident light from the surroundings as reflected light,
A camera unit that captures omnidirectional images of the surroundings by inputting and reflecting light reflected from a mirror, and an image processing unit. The image processing unit is a circular omnidirectional captured image captured by the camera unit. Is demodulated into a rectangular omnidirectional image, so that one camera can perform omnidirectional imaging, so that the apparatus can be economically constructed and mismatching occurs at a connection portion of each captured image. Problems can be prevented before they occur. The image processing unit includes a first memory in which a plurality of memory elements are arranged vertically and horizontally to store a captured image, a second memory in which a plurality of memory elements are arranged vertically and horizontally, a conversion unit, and a demodulation unit. The conversion unit converts each coordinate of the captured image in the first memory in association with the coordinates of each memory element in the second memory, and the demodulation unit converts the coordinates of the first memory converted by the conversion unit. Since the image data of each coordinate of the image is stored in each memory element of the second memory, the captured image can be easily demodulated into an omnidirectional image without distortion. Further, each coordinate of the captured image stored in the first memory is stored in the second memory.
When converting to the coordinates of each memory element of the memory of the first memory, the conversion unit is centered on the center of the captured image of the first memory,
A plurality of concentric circles sequentially arranged at predetermined intervals in the direction from the inner peripheral portion to the outer peripheral portion, and a coordinate of an intersection of a plurality of line segments sequentially arranged at a predetermined angle in the direction from the central portion to the outer peripheral portion, The demodulation unit stores the image data of the coordinates of the first memory converted by the conversion unit in a memory element of the second memory indicated by coordinates with the concentric circle as the vertical axis and the line segment as the horizontal axis. Since it is stored, it is possible to easily and easily perform the coordinate transformation and generate a rectangular omnidirectional image in the second memory.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明を適用したシステム内の撮影装置の構
成及びこの撮影装置により撮影された画像の処理状況を
示す図である。
FIG. 1 is a diagram showing a configuration of a photographing device in a system to which the present invention is applied and a processing status of an image photographed by the photographing device.

【図2】 上記撮影装置により撮影された画像の記憶状
況を示す図である。
FIG. 2 is a diagram illustrating a storage state of an image photographed by the photographing device.

【図3】 上記撮影装置の構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a configuration of the photographing device.

【図4】 撮影装置を構成する画像処理部における撮影
画像の座標変換を説明する説明図である。
FIG. 4 is an explanatory diagram illustrating coordinate conversion of a captured image in an image processing unit included in the imaging device.

【図5】 変換された座標にしたがって前記撮影画像を
メモリに記憶する状況を示す図である。
FIG. 5 is a diagram showing a situation in which the photographed image is stored in a memory according to converted coordinates.

【図6】 画像処理部により処理された風景画像、及び
前記風景画像を構成する各画像の領域座標を示す図であ
る。
FIG. 6 is a diagram showing a landscape image processed by an image processing unit and region coordinates of each image constituting the landscape image.

【図7】 情報提供者から提供される地域情報を示す図
である。
FIG. 7 is a diagram showing regional information provided by an information provider.

【図8】 上記システムを構成する風向・風速センサの
形状を示す図である。
FIG. 8 is a diagram showing a shape of a wind direction / wind speed sensor constituting the system.

【図9】 風向・風速センサの検出出力に基づく風向・
風速の演算状況を説明する図である。
FIG. 9 shows the wind direction / wind direction based on the detection output of the wind direction / wind speed sensor.
It is a figure explaining the calculation situation of a wind speed.

【図10】 風向・風速を演算し解析する風向・風速解
析部の構成を示すブロック図である。
FIG. 10 is a block diagram illustrating a configuration of a wind direction / wind speed analysis unit that calculates and analyzes the wind direction / wind speed.

【図11】 風向・風速の具体的な演算状況を説明する
図である。
FIG. 11 is a diagram illustrating a specific calculation state of wind direction and wind speed.

【図12】 上記システムの構成を示すブロック図であ
る。
FIG. 12 is a block diagram showing a configuration of the system.

【図13】 従来の撮影装置及びその撮影装置により撮
影される画像の合成状況を示す図である。
FIG. 13 is a diagram showing a conventional photographing apparatus and a state of synthesizing an image photographed by the photographing apparatus.

【図14】 従来の他の撮影装置の構成を示す図であ
る。
FIG. 14 is a diagram showing a configuration of another conventional photographing apparatus.

【符号の説明】[Explanation of symbols]

1A,1B…街頭設置部、2…画面作成センタ、3…ネ
ットワーク、4A〜4D…ユーザ端末、11…全方位カ
メラ、12…画像処理部、12A…変換部、12B…復
調部、15…風向・風速センサ、15A〜15D…圧力
センサ、16…風向・風速解析部、23…データベース
作成更新部、24…リンクテーブル、26A,26B…
地域情報収集解析部、28…データベース、30…制御
部、111…円錐鏡、112…カメラ本体、120…撮
影画像、124…無効エリア、130,140…メモ
リ、131,141…メモリ素子、150…取付部、1
60…CPU、281…全方位画像、282…リンク用
座標データ、291〜29n…地域情報。
1A, 1B: Street setting unit, 2: Screen creation center, 3: Network, 4A to 4D: User terminal, 11: Omnidirectional camera, 12: Image processing unit, 12A: Conversion unit, 12B: Demodulation unit, 15: Wind direction -Wind speed sensor, 15A to 15D-Pressure sensor, 16-Wind direction / wind speed analysis unit, 23-Database creation / update unit, 24-Link table, 26A, 26B-
Regional information collection / analysis unit, 28 database, 30 control unit, 111 conical mirror, 112 camera body, 120 captured image, 124 invalid area, 130, 140 memory, 131, 141 memory element, 150 Mounting part, 1
60 CPU, 281 omnidirectional image, 282 link coordinate data, 291 to 29n area information.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 G06F 15/64 450G ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/18 G06F 15/64 450G

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 周囲の全方位の映像を撮影する撮影装置
において、 周囲からの入射光を反射光として出力する円錐形状のミ
ラーと、 前記ミラーからの反射光を入力して撮影するカメラ部
と、 前記カメラ部により撮影された円状の全方位撮影画像を
方形状の全方位画像に復調する画像処理部とを備えたこ
とを特徴とする撮影装置。
1. A photographing apparatus for photographing a surrounding omnidirectional image, comprising: a cone-shaped mirror that outputs incident light from the surroundings as reflected light; and a camera unit that inputs reflected light from the mirror to photograph. An image processing unit for demodulating a circular omnidirectional captured image captured by the camera unit into a rectangular omnidirectional image.
【請求項2】 請求項1において、 前記画像処理部は、 複数のメモリ素子が縦横に配置され前記円状の全方位撮
影画像を記憶する第1のメモリと、 複数のメモリ素子が縦横に配置された第2のメモリと、 前記第1のメモリの前記全方位撮影画像の各座標を前記
第2のメモリの各メモリ素子の座標に関連づけて変換す
る変換部と、 前記変換部により変換された第1のメモリの全方位撮影
画像の各座標の画像データを第2のメモリの対応する各
メモリ素子に記憶し方形状の全方位画像として復調する
復調部とを備えたことを特徴とする撮影装置。
2. The image processing unit according to claim 1, wherein the first memory stores a plurality of memory elements arranged vertically and horizontally and stores the circular omnidirectional image, and the plurality of memory elements arranged vertically and horizontally. A converted second memory, a conversion unit that converts each coordinate of the omnidirectional captured image in the first memory in association with a coordinate of each memory element in the second memory, And a demodulation unit for storing image data of each coordinate of the omnidirectional photographed image in the first memory in the corresponding memory element of the second memory and demodulating the image data as a rectangular omnidirectional image. apparatus.
【請求項3】 請求項2において、 前記カメラ部により撮影された円状の前記全方位撮影画
像は中心部に円状の撮影無効エリアを有するとともに、
外周部と、前記撮影無効エリアの外周に位置する内周部
との間の画像が有効画像として前記第1のメモリに記憶
され、 前記変換部は、 前記第1のメモリに記憶された円状の全方位撮影画像の
各座標を前記第2のメモリの各メモリ素子の座標に変換
するときには、 前記第1のメモリの撮影画像の前記中心部を中心とし、
前記内周部から外周部の方向に所定の間隔で順次配置さ
れた複数の同心円と、前記中心部から前記外周部の方向
に所定の角度で順次配置された複数の線分との交点の座
標を求め、 かつ、前記復調部は、 前記同心円を縦軸とするとともに前記線分を横軸とした
座標で示される前記第2のメモリのメモリ素子に、前記
変換部により変換された前記第1のメモリの座標の画像
データを記憶することを特徴とする撮影装置。
3. The circular omnidirectional image captured by the camera unit according to claim 2, wherein the circular omnidirectional image has a circular imaging invalid area at a central portion thereof.
An image between an outer peripheral portion and an inner peripheral portion located on the outer periphery of the photographing invalid area is stored in the first memory as a valid image, and the converting section stores the circular shape stored in the first memory. When converting each coordinate of the omnidirectional photographed image into the coordinates of each memory element of the second memory, the center of the photographed image of the first memory is centered,
Coordinates of intersections between a plurality of concentric circles sequentially arranged at predetermined intervals in the direction from the inner peripheral portion to the outer peripheral portion and a plurality of line segments sequentially arranged at a predetermined angle from the central portion toward the outer peripheral portion And the demodulation unit converts the first constellation converted by the conversion unit into a memory element of the second memory indicated by coordinates with the concentric circle as a vertical axis and the line segment as a horizontal axis. An image capturing apparatus for storing image data of coordinates of a memory of (1).
JP11059249A 1999-03-05 1999-03-05 Photographing device Pending JP2000261705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11059249A JP2000261705A (en) 1999-03-05 1999-03-05 Photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11059249A JP2000261705A (en) 1999-03-05 1999-03-05 Photographing device

Publications (1)

Publication Number Publication Date
JP2000261705A true JP2000261705A (en) 2000-09-22

Family

ID=13107933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11059249A Pending JP2000261705A (en) 1999-03-05 1999-03-05 Photographing device

Country Status (1)

Country Link
JP (1) JP2000261705A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100392329B1 (en) * 2000-09-23 2003-07-22 박희재 A Camera Appratus To Take Full Direction Image
KR100777423B1 (en) * 2005-12-26 2007-11-20 한국항공우주연구원 Measure supporting system for the Electro-optical cameraEOC of geostationary satellite
US7477312B2 (en) 2003-07-04 2009-01-13 Sony Corporation Photographing apparatus, photographing method, and method for measuring converted data representing a fiber-array image
EP2469470A1 (en) * 2010-12-22 2012-06-27 Sony Corporation Imaging apparatus, image processing apparatus, image processing method, and program
JP2013258527A (en) * 2012-06-12 2013-12-26 Canon Inc Imaging device, and method and program of controlling the same
JP2016189611A (en) * 2016-06-13 2016-11-04 キヤノン株式会社 Computer device, control method of the same, and program
WO2017212616A1 (en) * 2016-06-09 2017-12-14 マクセル株式会社 Optical device and imaging device provided with same
JP7133789B2 (en) 2017-09-08 2022-09-09 パナソニックIpマネジメント株式会社 Sound collection device, sound collection system, sound collection method, program, and calibration method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100392329B1 (en) * 2000-09-23 2003-07-22 박희재 A Camera Appratus To Take Full Direction Image
US7477312B2 (en) 2003-07-04 2009-01-13 Sony Corporation Photographing apparatus, photographing method, and method for measuring converted data representing a fiber-array image
KR100777423B1 (en) * 2005-12-26 2007-11-20 한국항공우주연구원 Measure supporting system for the Electro-optical cameraEOC of geostationary satellite
EP2469470A1 (en) * 2010-12-22 2012-06-27 Sony Corporation Imaging apparatus, image processing apparatus, image processing method, and program
US8897621B2 (en) 2010-12-22 2014-11-25 Sony Corporation Imaging apparatus, image processing apparatus, image processing method, and program
JP2013258527A (en) * 2012-06-12 2013-12-26 Canon Inc Imaging device, and method and program of controlling the same
WO2017212616A1 (en) * 2016-06-09 2017-12-14 マクセル株式会社 Optical device and imaging device provided with same
JP2016189611A (en) * 2016-06-13 2016-11-04 キヤノン株式会社 Computer device, control method of the same, and program
JP7133789B2 (en) 2017-09-08 2022-09-09 パナソニックIpマネジメント株式会社 Sound collection device, sound collection system, sound collection method, program, and calibration method

Similar Documents

Publication Publication Date Title
JP6388176B2 (en) Image display device and image display method
CN105979123B (en) Image processing system, image processing method, and program
JP4048511B2 (en) Fisheye lens camera device and image distortion correction method thereof
KR101329470B1 (en) Image processing device, image processing method, and recording medium containing program thereof
JP4243767B2 (en) Fisheye lens camera device and image extraction method thereof
JP4268206B2 (en) Fisheye lens camera device and image distortion correction method thereof
EP1117256A1 (en) All-around video output method and device
WO2004066632A1 (en) Remote video display method, video acquisition device, method thereof, and program thereof
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
JP2006262030A (en) Angle of view adjusting apparatus, camera system, and angle of view adjusting method
CN108932051A (en) augmented reality image processing method, device and storage medium
AU2007249585B2 (en) Real-time capture and transformation of hemispherical video images to images in rectilinear coordinates
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2000261705A (en) Photographing device
JP3641747B2 (en) Image display method and image display apparatus
JP2010217984A (en) Image detector and image detection method
JPH11164292A (en) Image generating device, image presentation device, image generating method and image synthetic method
JP2000134537A (en) Image input device and its method
JP2000258555A (en) Flow rate direction detection device and photographed image distribution system
JP2005027154A (en) Multi-camera system and its adjusting device
JP2000253391A (en) Panorama video image generating system
JP2000261783A (en) Photographed picture distribution system
JP2001005956A (en) Wide field camera device
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
JPH1118007A (en) Omnidirectional image display system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040511