JP2000258555A - Flow rate direction detection device and photographed image distribution system - Google Patents

Flow rate direction detection device and photographed image distribution system

Info

Publication number
JP2000258555A
JP2000258555A JP5928799A JP5928799A JP2000258555A JP 2000258555 A JP2000258555 A JP 2000258555A JP 5928799 A JP5928799 A JP 5928799A JP 5928799 A JP5928799 A JP 5928799A JP 2000258555 A JP2000258555 A JP 2000258555A
Authority
JP
Japan
Prior art keywords
image
omnidirectional
wind
wind speed
flow rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5928799A
Other languages
Japanese (ja)
Inventor
Shigeyuki Matsuki
茂之 松木
Toshiaki Tsumura
俊明 津村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tamura Electric Works Ltd
Original Assignee
Tamura Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tamura Electric Works Ltd filed Critical Tamura Electric Works Ltd
Priority to JP5928799A priority Critical patent/JP2000258555A/en
Publication of JP2000258555A publication Critical patent/JP2000258555A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the reliability of an anemoscope and a wind speed sensor by detecting a wind speed in a specific angle range by a plurality of wind direction/wind speed sensors being mounted at an equal angle interval and performing operation using a wind direction/wind speed analysis part. SOLUTION: Street installation parts 1A-1Z have omnibearing cameras 11 and their image-processing parts 12, a temperature sensor 13 and a data correction part 14, a wind direction/wind speed sensor 15, and their wind direction/wind speed analysis parts 16. Then, each output is transmitted to a screen creation center 2 by a transmission control part 17 via a transmission line interface 18. Then, the wind direction/wind speed sensor 15 detects a wind direction/a wind speed with an angle within a range of 0-180 degrees for the detection surface of its own, and outputs a wind direction/a wind speed with 90 degrees for the detection surface of its own to the wind direction/ wind speed analysis part 16 as the maximum detection value. The analysis part 16 calculates the output signal of each wind direction/wind speed sensor 15, and at the same time synthesizes it with the photographed image of the omnibearing cameras 11 by the transmission control part 17 before being transmitted to the screen creation center 2.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、風向・風速などを
検出する流量向装置、及びカメラ等により撮影した画像
を配信する撮影画像配信システムに関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a flow direction detecting device for detecting a wind direction and a wind speed, and a photographed image distribution system for distributing an image photographed by a camera or the like.

【0002】[0002]

【従来の技術】例えば風向などのように流体の流れる方
向は、一般に機構部品からなる風向計などによりその方
向が報知される。また、風速などのように流体の流速を
計るセンサは、同様に機構部品により構成されており、
前記機構部品は測定対象となる流体のエネルギーを受け
てそのエネルギーに比例した変位を発生する。この変位
を直接測定し表示することにより流体の流速を報知する
ことができる。また、超音波型センサや熱線インピーダ
ンス型センサのように、流体が有する性質を副次的に利
用してその流量や向きを検出し、表示しているものもあ
る。
2. Description of the Related Art The direction of flow of a fluid, such as a wind direction, is generally reported by an anemoscope or the like comprising mechanical components. In addition, a sensor that measures the flow velocity of a fluid such as a wind velocity is similarly constituted by mechanical components,
The mechanism component receives the energy of the fluid to be measured and generates a displacement proportional to the energy. By directly measuring and displaying this displacement, the flow velocity of the fluid can be notified. Further, there are also sensors, such as an ultrasonic sensor and a hot-wire impedance sensor, which detect and display the flow rate and the direction of the fluid by using the properties of the fluid as a subsidiary.

【0003】[0003]

【発明が解決しようとする課題】しかしながら上述した
風向計や風速センサは、規模が大きくかつ機構部品を構
成する部品点数も多いため、限られた場所や環境下でし
か使用することができない。また、こうした風向計や風
速センサは、可動部が多いためメンテナンスが必要不可
欠であるという欠点もある。
However, the above-mentioned anemometer and wind speed sensor are large in scale and have a large number of components constituting mechanical components, so that they can be used only in limited places and environments. In addition, such an anemometer and a wind speed sensor have a drawback that maintenance is indispensable because there are many movable parts.

【0004】したがって本発明は、例えば風向計や風速
センサの信頼性を向上させるとともに、こうした風向計
や風速センサをカメラの近傍に配置し、検出した風向や
風速などの情報を前記カメラの撮影画像に付加してユー
ザに提供することを目的とする。
Accordingly, the present invention improves the reliability of, for example, an anemometer and an anemometer, places such an anemometer and an anemometer near a camera, and transmits detected information such as an anemometer and an anemometer to an image captured by the camera. And to provide to the user.

【0005】[0005]

【課題を解決するための手段】このような課題を解決す
るために本発明の流量向検出装置は、円状の取付部と、
取付部の周囲にこの取付部の中点を中心として均等な角
度間隔で取り付けられた少なくとも4つの圧力センサと
からなり、かつ各圧力センサは、それぞれ自身の感知面
に対し0度から180度の範囲の角度を有する流体の流
量の検出を行うとともに、自身の感知面に対して90度
の角度を有する流体の流量を最大検出値として出力する
ようにしたことにより特徴づけられる。この場合、圧力
センサの出力を入力して前記流体の流量及び流向を演算
する演算部を設け、演算部は、複数の圧力センサのうち
少なくとも1つの圧力センサの出力に基づいて流体の流
量及び流向を演算する。ここで、各圧力センサは所定の
流向を有する流体の流量を、それぞれ自身の感知面に対
する90度の角度成分の流量に変換して検出値として出
力し、演算部は、各圧力センサの各検出値の比率に基づ
き前記流体の流向を算出するとともに、算出した前記流
向と各圧力センサの各検出値とに基づき前記流体の流量
を算出する。
In order to solve such a problem, a flow direction detecting apparatus according to the present invention comprises a circular mounting portion,
At least four pressure sensors mounted around the mounting portion at equal angular intervals about the midpoint of the mounting portion, and each pressure sensor has an angle of 0 to 180 degrees with respect to its own sensing surface. It is characterized in that the flow rate of a fluid having an angle in a range is detected and the flow rate of a fluid having an angle of 90 degrees with respect to its own sensing surface is output as a maximum detection value. In this case, a calculation unit is provided for calculating the flow rate and the flow direction of the fluid by inputting the output of the pressure sensor, and the calculation unit calculates the flow rate and the flow direction of the fluid based on the output of at least one of the plurality of pressure sensors. Is calculated. Here, each pressure sensor converts the flow rate of the fluid having a predetermined flow direction into a flow rate of an angle component of 90 degrees with respect to its own sensing surface, and outputs the detected value as a detection value. The flow direction of the fluid is calculated based on the value ratio, and the flow rate of the fluid is calculated based on the calculated flow direction and each detection value of each pressure sensor.

【0006】また、本発明の撮影画像配信システムは、
ネットワークと、ネットワークに接続されるユーザ端末
と、所定の場所に設置される全方位カメラと、全方位カ
メラの近傍に設置され風力を検出するセンサと、全方位
カメラにより撮影された全方位撮影画像を処理して全方
位画像としてネットワークを介しユーザ端末に配信し表
示させるセンタとからなる撮影画像配信システムであっ
て、センタは、全方位カメラにより撮影された全方位撮
影画像を処理する画像処理部、センサの検出出力に基づ
き風向及び風速を演算し、演算結果の風向及び風速情報
を、画像処理部により生成された全方位画像に付加する
情報付加手段、及び制御手段を備え、制御手段は風向及
び風速情報が付加された全方位画像をユーザ端末に配信
し表示させるものである。また、センタは、全方位画像
の各画像と座標とが関連づけられリンク用座標データと
して記憶されるテーブル、画像処理部により生成された
全方位画像とテーブルのリンク用座標データとを1対の
データとして記憶するデータベース、及び登録手段を備
え、登録手段は全方位カメラの撮影範囲内に位置する情
報提供者からの提供情報を入力すると前記座標と関連づ
けてデータベースに登録し、制御手段は、ユーザ端末に
表示された全方位画像の中の何れかの画像が選択される
と、リンク用座標データのうち前記画像に対応する座標
を選択するとともに、選択した座標に対応する提供情報
をデータベースから取り出してユーザ端末に配信するも
のである。
[0006] Further, the photographed image distribution system of the present invention comprises:
A network, a user terminal connected to the network, an omnidirectional camera installed at a predetermined location, a sensor installed near the omnidirectional camera to detect wind power, and an omnidirectional image captured by the omnidirectional camera And a center for distributing and displaying an omnidirectional image as a omnidirectional image to a user terminal via a network, wherein the center is configured to process an omnidirectional captured image captured by an omnidirectional camera. An information adding unit that calculates the wind direction and the wind speed based on the detection output of the sensor, and adds the calculated wind direction and the wind speed information to the omnidirectional image generated by the image processing unit; and a control unit. And an omnidirectional image to which the wind speed information is added is distributed to the user terminal and displayed. Further, the center is a table in which each image of the omnidirectional image is associated with coordinates and stored as link coordinate data, and the center stores the omnidirectional image generated by the image processing unit and the link coordinate data of the table as a pair of data. And a registration unit. When registration information is inputted from an information provider located within an imaging range of the omnidirectional camera, the registration unit registers the information in the database in association with the coordinates, and the control unit includes a user terminal. When any one of the omnidirectional images displayed in is selected, the coordinates corresponding to the image are selected from the link coordinate data, and the provided information corresponding to the selected coordinates is extracted from the database. It is delivered to the user terminal.

【0007】[0007]

【発明の実施の形態】以下、本発明について図面を参照
して説明する。図12は本発明を適用したシステムの構
成を示すブロック図である。図12において、本システ
ムは、複数の街頭設置部1A,1B,・・・,1Zと、
画面作成センタ2と、ネットワーク3と、ユーザ端末4
A〜4Cとからなる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. FIG. 12 is a block diagram showing a configuration of a system to which the present invention is applied. In FIG. 12, the system includes a plurality of street installation units 1A, 1B,.
Screen creation center 2, network 3, user terminal 4
A to 4C.

【0008】街頭設置部1A,1Bには、それぞれ、全
方位カメラ11と、この全方位カメラ11の撮影画像を
処理する変換部12A及び復調部12Bからなる画像処
理部12が設けられている。街頭設置部1A,1Bに
は、さらに温度センサ13と、この温度センサ13によ
り検出された温度を補正するデータ補正部14と、風向
・風速センサ15と、風向・風速センサ15の出力を解
析する風向・風速解析部16と、画像処理部12,デー
タ補正部14及び風向・風速解析部16の各出力を伝送
路インタフェース18を介して画面作成センタ2に伝送
する伝送制御部17とが設けられている。
Each of the street installation sections 1A and 1B is provided with an omnidirectional camera 11 and an image processing section 12 comprising a conversion section 12A and a demodulation section 12B for processing images taken by the omnidirectional camera 11. The street installation units 1A and 1B further analyze a temperature sensor 13, a data correction unit 14 for correcting the temperature detected by the temperature sensor 13, a wind direction / wind speed sensor 15, and an output of the wind direction / wind speed sensor 15. A wind direction / wind speed analysis unit 16 and a transmission control unit 17 that transmits each output of the image processing unit 12, the data correction unit 14, and the wind direction / wind speed analysis unit 16 to the screen creation center 2 via the transmission line interface 18 are provided. ing.

【0009】画面作成センタ2は、街頭設置部1A,1
Bのインタフェースであるインタフェース21A,21
Bと、街頭設置部1A,1Bの周辺に設置されている店
舗内の情報提供者10A,10Bからの地域情報を受信
する回線インタフェース25A,25Bと、受信した地
域情報の蓄積及びその地域情報のリンク先を記憶する地
域情報収集解析部26A,26Bと、バス27と、デー
タベース28と、伝送路インタフェース29と、制御部
30とからなる。また、画面作成センタ2内のインタフ
ェース21A,21Bは、それぞれ伝送路インタフェー
ス22と、データベース作成更新部23と、リンクテー
ブル24とからなる。
[0009] The screen creation center 2 includes street setting units 1A and 1
Interfaces 21A and 21 which are interfaces of B
B, line interfaces 25A and 25B for receiving local information from the information providers 10A and 10B in the stores installed around the street installation units 1A and 1B, storage of the received local information and It is composed of local information collection / analysis units 26A and 26B that store link destinations, a bus 27, a database 28, a transmission line interface 29, and a control unit 30. The interfaces 21A and 21B in the screen creation center 2 each include a transmission line interface 22, a database creation / update unit 23, and a link table 24.

【0010】ここで街頭設置部1A,1Bでは、自身が
設置されている周囲の風景や温度、風向き、風速などを
時々刻々画面作成センタ2へ送信する一方、それぞれ各
街頭設置部1A,1Bの周囲に配置されている店舗内の
各情報提供者10A,10Bはそれぞれ自身の店舗など
の情報を地域情報として画面作成センタ2へ送信する。
画面作成センタ2では、街頭設置部1Aからの送信情報
と情報提供者10Aからの地域情報とを関連づけてデー
タベース28に記憶する。また、街頭設置部1Bからの
送信情報と情報提供者10Bからの地域情報とを関連づ
けてデータベース28に記憶する。そして、画面作成セ
ンタ2では各ユーザからそれぞれユーザ端末4A〜4C
及びネットワーク3を介してアクセスされると、該当の
街頭設置部1が配置されている場所の風景や地域情報を
データベース28から取り出して伝送路インタフェース
29及びネットワーク3を介してユーザ端末に送信し、
ユーザに提供する。
Here, the street setting sections 1A and 1B transmit the surrounding scenery, temperature, wind direction, wind speed and the like where they are set to the screen creation center 2 from time to time, while the street setting sections 1A and 1B respectively. Each of the information providers 10A and 10B in the stores arranged in the vicinity transmits information on its own store and the like to the screen creation center 2 as regional information.
In the screen creation center 2, the transmission information from the street installation unit 1A and the regional information from the information provider 10A are stored in the database 28 in association with each other. Further, the transmission information from the street installation unit 1B and the regional information from the information provider 10B are stored in the database 28 in association with each other. In the screen creation center 2, the user terminals 4A to 4C
And when accessed via the network 3, the scenery and regional information of the place where the corresponding street installation unit 1 is arranged is extracted from the database 28 and transmitted to the user terminal via the transmission path interface 29 and the network 3,
Provide to users.

【0011】街頭設置部1Aの全方位カメラ11(街頭
設置部1Bの全方位カメラも同様)は、図1(a)に示
すように、円錐鏡111と、カメラ本体112とからな
る。円錐鏡111では周囲からの入射光INを反射して
反射光OUTとしてカメラ本体112に送出する。カメ
ラ本体112では円錐鏡111からの反射光OUTを入
力して撮影する。
The omnidirectional camera 11 of the street setting section 1A (the same applies to the omnidirectional camera of the street setting section 1B) comprises a conical mirror 111 and a camera body 112 as shown in FIG. The conical mirror 111 reflects the incident light IN from the surroundings and sends it to the camera body 112 as reflected light OUT. The camera body 112 captures an image by inputting the reflected light OUT from the conical mirror 111.

【0012】図1(b)はこのようにしてカメラ本体1
12で撮影され、画像処理部12のメモリ130の各メ
モリ素子に各画素として記憶された撮影画像120を示
す図である。図1(b)において、121は自動車画
像、122はビルの画像、123は樹木の画像を示す。
なお、撮影画像120の中心部は、画像として適さない
無効エリア124である。カメラ本体112は、円錐鏡
111による反射光を入力して撮影するため、その撮影
画像120は、図1(b)に示すような円状の画像とな
り、その画像は歪みが生じて中心部(無効エリア12
4)に近づくにつれて小さくなる。このため、画像処理
部12では後述するソフトウェア処理により、図1
(b)の撮影画像120を図1(c)に示すような正規
の画像に復調する。
FIG. 1B shows the camera body 1 in this manner.
FIG. 3 is a diagram illustrating a captured image 120 captured at 12 and stored as each pixel in each memory element of a memory 130 of the image processing unit 12. In FIG. 1B, 121 is an automobile image, 122 is a building image, and 123 is a tree image.
Note that the center of the captured image 120 is an invalid area 124 that is not suitable as an image. Since the camera body 112 captures the image by inputting the reflected light from the conical mirror 111, the captured image 120 becomes a circular image as shown in FIG. 1B, and the image is distorted due to the center portion ( Invalid area 12
It becomes smaller as approaching 4). For this reason, the image processing unit 12 executes the software processing described later in FIG.
The photographed image 120 of (b) is demodulated into a regular image as shown in FIG.

【0013】図2は、カメラ本体112で撮影され、画
像処理部12により量子化されて画像処理部12内のメ
モリ130の各メモリ素子131に各画素として記憶さ
れる円状の撮影画像120の記憶状況を示す図である。
ここで、カメラ本体により撮影されメモリ130に記憶
される画像120は、メモリ130の各メモリ素子と、
90度、180度、270度、360度のいずれかの角
度をなす場合に最大数の画素として各メモリ素子131
に記憶される。また、前記画像120は、メモリ130
の各メモリ素子と、45度、135度、225度、31
5度のいずれかの角度をなす場合に最小数の画素として
各メモリ素子131に記憶される。
FIG. 2 shows a circular photographed image 120 which is photographed by the camera body 112, quantized by the image processing unit 12, and stored as each pixel in each memory element 131 of the memory 130 in the image processing unit 12. It is a figure showing a storage situation.
Here, the image 120 captured by the camera body and stored in the memory 130 includes the respective memory elements of the memory 130,
When the angle is any one of 90 degrees, 180 degrees, 270 degrees, and 360 degrees, each memory element 131 is used as the maximum number of pixels.
Is stored. The image 120 is stored in the memory 130.
, 45 degrees, 135 degrees, 225 degrees, and 31 degrees
When forming an angle of any of 5 degrees, it is stored in each memory element 131 as the minimum number of pixels.

【0014】図2の例では、垂直方向の画素数Aが最大
であり(画素数=5)、これと45度の角度をなす方向
の画素数Bが最小(画素数=4)となる。また、図2に
示すように、円状の撮影画像120の外周と最大画素数
Aを有する方向の線分の交点と、前記外周と最小画素数
Bを有する方向の線分の交点との間を外周円弧120A
とし、円状の撮影画像120の内周(すなわち無効エリ
ア124の外周)と最大画素数Aを有する方向の線分の
交点と、前記内周と最小画素数Bを有する方向の線分の
交点との間を内周円弧120Bとすれば、外周円弧12
0Aの画素数Dが最大となり、内周円弧120Bの画素
数Cは最小となる。
In the example of FIG. 2, the number of pixels A in the vertical direction is the maximum (number of pixels = 5), and the number of pixels B in the direction forming an angle of 45 degrees with this is the minimum (number of pixels = 4). Further, as shown in FIG. 2, the intersection between the outer periphery of the circular captured image 120 and the line segment in the direction having the maximum number of pixels A, and the intersection between the outer periphery and the line segment in the direction having the minimum number of pixels B Is the outer circular arc 120A
And the intersection of a line segment in the direction having the maximum number of pixels A with the inner periphery of the circular photographed image 120 (that is, the outer periphery of the invalid area 124), and the intersection of a line segment in the direction having the minimum number of pixels B with the inner periphery. Is defined as the inner circumferential arc 120B, the outer circumferential arc 12B
The number of pixels D of 0A becomes the maximum, and the number of pixels C of the inner circumferential arc 120B becomes the minimum.

【0015】従って、撮影画像120の外周円弧120
A付近の画像と内周円弧120B付近の画像とでは画素
数が異なり、画像に歪みが生じる。このため、図3に示
す画像処理部12の変換部12Aは、メモリ130の最
小画素数B(垂直方向の画素と45度の角度をなす画素
の数)が最大画素数A(垂直方向の画素数)となるよう
に(すなわち、A=Bとなるように)処理を行い、かつ
内周円弧120Bの画素数C(最小画素数)が外周円弧
120Aの画素数D(最大画素数)となるように(すな
わち、C=Dとなるように)処理を行って画像の歪みを
除去する。そして、さらに図3に示す画像処理部12の
復調部12Bは変換部12Aの処理結果に基づいて、図
1(c)に示すような正規な画像として復調し画像処理
部12内のメモリ140の後述の各メモリ素子141に
記憶する。
Therefore, the outer circumferential arc 120 of the photographed image 120
The number of pixels differs between the image near A and the image near the inner arc 120B, and the image is distorted. For this reason, the conversion unit 12A of the image processing unit 12 shown in FIG. 3 determines that the minimum number of pixels B (the number of pixels that make an angle of 45 degrees with the vertical pixels) of the memory 130 is the maximum number of pixels A (the pixels in the vertical direction). (Ie, A = B), and the number of pixels C (minimum number of pixels) of the inner circular arc 120B becomes the number of pixels D (maximum number of pixels) of the outer circular arc 120A. (Ie, so that C = D) to remove image distortion. Further, the demodulation unit 12B of the image processing unit 12 shown in FIG. 3 demodulates as a normal image as shown in FIG. It is stored in each memory element 141 described later.

【0016】図4は画像処理部12の変換部12Aによ
る具体的な処理の状況を示す説明図である。変換部12
Aは、画像処理部12内のメモリ130の各メモリ素子
131に記憶された撮影画像120の歪みを除去するた
めに撮影画像120の座標変換を行う。この場合、変換
部12Aは、円状の撮影画像120の外周と内周間に水
平または垂直方向の1つのメモリ素子毎(所定数のメモ
リ素子毎であっても良い)に描かれた各同心円と、撮影
画像120の外周に位置する1つのメモリ素子毎(所定
数のメモリ素子毎であっても良い)に撮像画像120の
中心部(すなわち、円状の無効エリア124の中心点
O)から撮像画像120の外周方向に描かれた各線分と
の交点の座標を求める処理を行う。
FIG. 4 is an explanatory diagram showing a specific processing situation by the conversion unit 12A of the image processing unit 12. Conversion unit 12
A performs coordinate transformation of the captured image 120 to remove distortion of the captured image 120 stored in each memory element 131 of the memory 130 in the image processing unit 12. In this case, the conversion unit 12A is arranged between the outer circumference and the inner circumference of the circular captured image 120 for each memory element in the horizontal or vertical direction (may be a predetermined number of memory elements). From the central portion of the captured image 120 (that is, the center point O of the circular invalid area 124) for each one of the memory elements located on the outer periphery of the captured image 120 (or for each of a predetermined number of memory elements). A process of obtaining coordinates of an intersection with each line drawn in the outer peripheral direction of the captured image 120 is performed.

【0017】ここで、前記撮影画像120の内周から外
周の方向に描かれた各同心円を、内周を基点として順次
「0」,「1」,「2」,・・・,「n」とし、かつ前
記中心点Oから撮影画像120の外周方向に描かれた各
線分を、水平方向を基点として順次「0」,「1」,
「2」,・・・,「N」とする。また、前記中心点Oか
ら撮影画像120の内周までの距離をR、各線分間の角
度をΔθ(即ち、垂直方向の解像度を定めるパラメー
タ)、各同心円間の間隔(即ち、水平方向の解像度を定
めるパラメータ)をΔrとすると、線分「1」と同心円
「0」との交点座標(x,y)は、 x=RcosΔθ、y=RsinΔθ となる。
Here, concentric circles drawn in the direction from the inner circumference to the outer circumference of the photographed image 120 are sequentially defined as “0”, “1”, “2”,. And each line segment drawn in the outer peripheral direction of the captured image 120 from the center point O is sequentially set to “0”, “1”,
.., “N”. Further, the distance from the center point O to the inner periphery of the captured image 120 is R, the angle between each line segment is Δθ (that is, a parameter that determines the resolution in the vertical direction), and the interval between concentric circles (that is, the resolution in the horizontal direction is Assuming that the determined parameter is Δr, the coordinates (x, y) of the intersection of the line segment “1” and the concentric circle “0” are x = RcosΔθ and y = RsinΔθ.

【0018】また、線分「1」と同心円「1」との交点
座標(x,y)は、 x=(R+Δr)cosΔθ、y=(R+Δr)sin
Δθ となり、さらに線分「1」と同心円「n」との交点座標
(x,y)は、 x=(R+nΔr)cosΔθ、y=(R+nΔr)s
inΔθ となる。さらにまた、線分「N」と同心円「n」との交
点座標(x,y)は、 x=(R+nΔr)cos(N・Δθ)、 y=(R+nΔr)sin(N・Δθ) となる。
The coordinates of the intersection (x, y) of the line segment “1” and the concentric circle “1” are x = (R + Δr) cosΔθ, y = (R + Δr) sin
Δθ, and the coordinates (x, y) of the intersection of the line segment “1” and the concentric circle “n” are x = (R + nΔr) cosΔθ, y = (R + nΔr) s
inΔθ. Furthermore, the coordinates of the intersection (x, y) between the line segment “N” and the concentric circle “n” are x = (R + nΔr) cos (N · Δθ) and y = (R + nΔr) sin (N · Δθ).

【0019】このようにして、変換部12Aにおいて、
メモリ130に記憶されている撮影画像120の座標が
全て求められた後、画像処理部12の復調部12Bは変
換部12Aにより求められた座標をもとに、撮影画像1
20を、画像処理部12内のメモリ140に図5に示す
ようなパノラマに展開し、正規な画像に復調する。
As described above, in the conversion unit 12A,
After all the coordinates of the captured image 120 stored in the memory 130 have been obtained, the demodulation unit 12B of the image processing unit 12 uses the captured image 1 based on the coordinates obtained by the conversion unit 12A.
20 is developed into a panorama as shown in FIG. 5 in the memory 140 in the image processing unit 12 and demodulated into a normal image.

【0020】ここで、図5に示すメモリ140の各メモ
リ素子141の各画素は、変換部12Aにより求められ
た各交点座標に相当しており、復調部12Bは、変換部
12Aにおいて求められた図4の例えば線分「1」と同
心円「0」との交点座標(RcosΔθ,RsinΔ
θ)の画像データを、図5のメモリ140のN=1,n
=0で示すアドレスのメモリ素子に記憶する。また、復
調部12Bは、変換部12Aにおいて求められた図4の
例えば線分「1」と同心円「1」との交点座標((R+
Δr)cosΔθ,(R+Δr)sinΔθ)の画像デ
ータを、図5のメモリ140のN=1,n=1で示すア
ドレスのメモリ素子に記憶する。
Here, each pixel of each memory element 141 of the memory 140 shown in FIG. 5 corresponds to each intersection coordinate obtained by the conversion unit 12A, and the demodulation unit 12B is obtained by the conversion unit 12A. For example, the coordinates (RcosΔθ, RsinΔ) of the intersection of the line segment “1” and the concentric circle “0” in FIG.
θ) is stored in the memory 140 shown in FIG.
= 0 is stored in the memory element at the address indicated by 0. Further, the demodulation unit 12B calculates the intersection coordinates ((R + R) of, for example, the line segment “1” and the concentric circle “1” in FIG.
The image data of (Δr) cosΔθ, (R + Δr) sinΔθ) is stored in the memory element at the address indicated by N = 1, n = 1 in the memory 140 of FIG.

【0021】さらに、復調部12Bは、変換部12Aに
おいて求められた図4の例えば線分「1」と同心円
「n」との交点座標((R+nΔr)cosΔθ,(R
+nΔr)sinΔθ)の画像データを、図5のメモリ
140のN=1,n=nで示すアドレスのメモリ素子に
記憶する。さらにまた、復調部12Bは、変換部12A
において求められた図4の例えば線分「N」と同心円
「n」との交点座標((R+nΔr)cos(N・Δ
θ),(R+nΔr)sin(N・Δθ))の画像デー
タを、図5のメモリ140のN=N,n=nで示すアド
レスのメモリ素子に記憶する。
Further, the demodulation unit 12B calculates the intersection coordinates ((R + nΔr) cosΔθ, (R) of, for example, the line segment “1” and the concentric circle “n” in FIG.
The image data of (+ nΔr) sinΔθ) is stored in the memory element of the memory 140 in FIG. Furthermore, the demodulation unit 12B includes a conversion unit 12A
4, the intersection coordinates ((R + nΔr) cos (N · Δ) of the line segment “N” and the concentric circle “n” in FIG.
θ), (R + nΔr) sin (N · Δθ)) is stored in the memory element of the memory 140 of FIG. 5 at the address indicated by N = N, n = n.

【0022】ここで、n,Nは変数であり、復調部12
Bは、1つのNについてnが「0」から「n」まで順次
画像展開処理を行い、それが終了すると次のNについて
同様にnが「0」から「n」まで順次画像展開処理を行
うようにして、N・Δθが360゜になるまで繰り返し
同様の画像展開処理を実行する。このようにして、メモ
リ140には、円錐鏡111で反射されカメラ本体11
2で撮影された歪みのある全方位の画像120が正規な
全方位の画像として記憶され、したがって自動車画像1
21,ビル画像122及び樹木画像123も図5に示す
ような正規な形に復元される。
Here, n and N are variables, and the demodulation unit 12
B sequentially performs image development processing for n from “0” to “n” for one N, and when the processing is completed, similarly performs image development processing for n for “N” from “0” to “n”. In this manner, the same image development processing is repeatedly executed until N · Δθ becomes 360 °. In this manner, the memory 140 reflects the light reflected by the conical mirror 111 into the camera body 11.
The distorted omnidirectional image 120 taken at 2 is stored as a regular omnidirectional image, and thus the car image 1
The building image 122, the tree image 123, and the tree image 123 are also restored to their normal forms as shown in FIG.

【0023】こうして、街頭設置部1A内の全方位カメ
ラ11により撮影され画像処理部12により処理された
画像は、図12の伝送制御部17により伝送路インタフ
ェース18を介して画面作成センタ2に送られる。画面
作成センタ2のインタフェース21A内のデータベース
作成更新部23は、画像処理部12により処理された画
像を入力すると、この画像に街頭設置部1A内の温度セ
ンサ13からの温度情報を付加し、かつ街頭設置部1A
内の風向・風速センサ15からの風向・風速情報を付加
する。また、データベース作成更新部23は、画像処理
部12により処理された前記画像と、前記画像中の個別
画像とその座標とが関連づけられてリンクテーブル24
に予め登録されているリンク用座標データとを、1対の
データとする。画面作成センタ2の制御部30は、地域
情報収集解析部26Aに蓄積されている情報提供者10
Aからの地域情報を入力すると、その地域情報収集解析
部26Aに記憶されているリンク先情報に基づいて前記
地域情報を前記1対のデータにリンクさせデータベース
28に記憶する。
The image photographed by the omnidirectional camera 11 in the street setting section 1A and processed by the image processing section 12 is transmitted to the screen creation center 2 via the transmission path interface 18 by the transmission control section 17 in FIG. Can be Upon input of the image processed by the image processing unit 12, the database creation / update unit 23 in the interface 21A of the screen creation center 2 adds temperature information from the temperature sensor 13 in the street installation unit 1A to this image, and Street section 1A
The wind direction / wind speed information from the inside wind direction / wind speed sensor 15 is added. The database creation / updating unit 23 also links the image processed by the image processing unit 12, the individual image in the image, and the coordinates thereof to a link table 24.
And link coordinate data registered in advance as a pair of data. The control unit 30 of the screen creation center 2 uses the information provider 10 stored in the local information collection and analysis unit 26A.
When the area information from A is input, the area information is linked to the pair of data based on the link destination information stored in the area information collection / analysis unit 26A and stored in the database 28.

【0024】なお、街頭設置部1B内の全方位カメラ1
1により撮影され画像処理部12により処理された画像
についても、インタフェース21B内のデータベース作
成更新部23により同様に処理され、さらに、街頭設置
部1Bの情報提供者10Bにより提供され地域情報収集
解析部26Bに蓄積された地域情報とリンクされてデー
タベース28に記憶される。
The omnidirectional camera 1 in the street installation section 1B
1 and processed by the image processing unit 12 in the same manner by the database creation / updating unit 23 in the interface 21B, and further provided by the information provider 10B of the street installation unit 1B and the local information collection / analysis unit. The information is linked with the regional information stored in 26B and stored in the database 28.

【0025】図6は、データベース作成更新部23から
データベース28に記憶された1対のデータを示す図で
ある。このうち、図6(a)はデータベース作成更新部
23により処理された全方位の風景画像281を示す
図、図6(b)は風景画像281中の各画像領域とその
座標〜とが関連づけられたリンク用座標データ28
2を示す図である。ここで、リンク用座標データ282
は、図6(a)の風景画像281内の各画像から予め所
定の方法でその輪郭が抽出されその輪郭画像の領域内が
風景画像281の画像の座標として定められている。こ
のため、データベース28内の風景画像281の記憶領
域と、リンク用座標データ282の記憶領域は同一の記
憶容量を有し、データベース28の風景画像281の画
像アドレスとリンク用座標データ282の輪郭画像のア
ドレスは互いに対応している。
FIG. 6 is a diagram showing a pair of data stored in the database 28 from the database creating / updating unit 23. 6A shows an omnidirectional landscape image 281 processed by the database creation / updating unit 23, and FIG. 6B associates each image region in the landscape image 281 with its coordinates. Link coordinate data 28
FIG. Here, link coordinate data 282
In FIG. 6A, the outline is extracted in advance from each image in the landscape image 281 by a predetermined method, and the area of the outline image is defined as the coordinates of the image of the landscape image 281. For this reason, the storage area of the landscape image 281 in the database 28 and the storage area of the link coordinate data 282 have the same storage capacity, and the image address of the landscape image 281 in the database 28 and the outline image of the link coordinate data 282 are used. Address correspond to each other.

【0026】ここで、例えば情報提供者10Aから予め
ネットワーク3に提供されユーザ端末4Aに表示されて
いるホームページ等の情報画面、または予め情報提供者
10Aから提供された情報に基づいて作成されユーザ端
末4Aに表示されている情報画面がユーザによりアクセ
スされると、ネットワーク3を介して画面作成センタ2
にそのアクセス情報が伝達される。この場合、画面作成
センタ2の制御部30はデータベース28から該当の画
像を取り出してネットワーク3を介しユーザ端末4Aに
送信する。この結果、ユーザ端末4Aの図示しない表示
部には全方位カメラ11により時々刻々撮影された図6
(a)に示す風景画像281が表示される。
Here, for example, an information screen such as a homepage provided from the information provider 10A to the network 3 in advance and displayed on the user terminal 4A, or a user terminal created based on information provided in advance from the information provider 10A. When the information screen displayed on 4A is accessed by the user, the screen creation center 2
The access information is transmitted to. In this case, the control unit 30 of the screen creation center 2 takes out the relevant image from the database 28 and sends it to the user terminal 4A via the network 3. As a result, the display unit (not shown) of the user terminal 4A displays the momentary photograph of FIG.
A landscape image 281 shown in (a) is displayed.

【0027】その後、ユーザがユーザ端末4Aの表示部
に表示中の部分画像である店舗(レストランやまびこ)
をクリックすると、そのクリック座標情報が画像作成セ
ンタ2に送られる。この場合、画像作成センタ2の制御
部30は、図6(b)のリンク用座標データ282の中
の前記店舗の画像の座標がクリックされたと判断す
る。そして、そのリンク用座標データ282の前記座標
に対応してデータベース28に記憶されている地域情
報を取り出してユーザ端末4Aに送り、ユーザ端末4A
の表示部に表示させる。
After that, the store (restaurant or map) which is a partial image displayed on the display unit of the user terminal 4A by the user.
When clicked, the click coordinate information is sent to the image creation center 2. In this case, the control unit 30 of the image creation center 2 determines that the coordinates of the image of the store in the link coordinate data 282 in FIG. 6B have been clicked. Then, the local information stored in the database 28 corresponding to the coordinates of the link coordinate data 282 is extracted and sent to the user terminal 4A.
Is displayed on the display unit.

【0028】図7は、例えば情報提供者10Aから提供
されユーザ端末4Aに表示される地域情報(即ち、情報
提供者10Aから提供される情報ページの内容)を示す
図であり、図7中の地域情報291は、図6(b)のリ
ンク用座標データ282の座標がクリックされたとき
に表示される前記店舗(レストランやまびこ)の情報で
ある。また、図7中の地域情報292,293は、図6
(b)のリンク用座標データ282の座標,がそれ
ぞれクリックされたときに表示される情報を示し、この
情報は情報提供者10Aなどから同様に提供され、座標
,と関連づけてデータベース28に記憶されてい
る。
FIG. 7 is a diagram showing, for example, regional information provided by the information provider 10A and displayed on the user terminal 4A (that is, the contents of the information page provided by the information provider 10A). The area information 291 is the information of the shop (restaurant or Mabiko) displayed when the coordinates of the link coordinate data 282 in FIG. 6B are clicked. The area information 292 and 293 in FIG.
(B) indicates information displayed when the coordinates of the link coordinate data 282 are clicked, and this information is similarly provided from the information provider 10A or the like, and is stored in the database 28 in association with the coordinates. ing.

【0029】このように、全方位カメラ11で時々刻々
撮影され処理された各画像と、各画像の座標を示すリン
ク用座標データとを1対のデータとしてデータベース2
8に記憶するとともに、前記リンク用座標データの各座
標に関連づけて、全方位カメラ11の撮影範囲内に存在
する情報提供者からの地域情報をデータベース28に記
憶し、ユーザが前記情報提供者から提供されユーザ端末
に表示されている例えばホームページの情報画面をアク
セスすると、データベース28内の該当撮影画像をユー
ザ端末に送って表示させる一方、ユーザが表示されてい
る撮影画像中の1つの画像をクリックすると、その画像
に対応するリンク用座標データの座標に基づき該当の地
域情報をデータベース28から取り出しユーザ端末に表
示させるようにしたものである。
As described above, each image photographed and processed every moment by the omnidirectional camera 11 and the coordinate data for link indicating the coordinates of each image are used as a pair of data in the database 2.
8 and also stores in the database 28 regional information from the information provider existing within the shooting range of the omnidirectional camera 11 in association with each coordinate of the link coordinate data. When the user accesses the information screen of, for example, a homepage provided and displayed on the user terminal, the corresponding photographed image in the database 28 is sent to the user terminal for display, and the user clicks one image in the displayed photographed image. Then, based on the coordinates of the link coordinate data corresponding to the image, the corresponding area information is retrieved from the database 28 and displayed on the user terminal.

【0030】ところで、ユーザ端末の中にはデータベー
ス28中の全方位画像281の全ての画像及び全てのリ
ンク用座標データ282を配信できないものもある。こ
のような場合は、データベース28の全方位画像281
及びリンク用座標データ282の各記憶領域のアドレス
を例えばリングカウンタによりアクセスし、360度の
全方位画像281及びこれに対応するリンク用座標デー
タ282をそれぞれ、例えば1度から360度の方向に
順次1度毎に読み出すとともに、360度に位置する画
像が読み出されたら次に再び1度から360度の方向に
読み出せるようにする。そして、ユーザ端末の図示しな
いスクロールキーが操作されると、前記リングカウンタ
を介してデータベース28の全方位画像281の領域を
アクセスすることにより、図6(a)に示す風景画像を
図中、右方向または左方向(即ち、1度から360度側
方向、または360度から1度側の方向)に順次スクロ
ールさせ、データベース28中の全方位画像281の全
ての画像を表示できるようにする。そして、このときデ
ータベース28内のリンク用座標データ282の領域も
同時に連動してシフトさせることにより、図6(b)に
示すリンク用座標データ282もスクロールさせる。
Some user terminals cannot distribute all images of the omnidirectional image 281 in the database 28 and all link coordinate data 282. In such a case, the omnidirectional image 281 of the database 28
The address of each storage area of the link coordinate data 282 is accessed by, for example, a ring counter, and the 360-degree omnidirectional image 281 and the corresponding link coordinate data 282 are sequentially stored in the direction of, for example, 1 to 360 degrees. The image is read out once every time, and when the image located at 360 degrees is read out, it can be read out again in the direction from 1 degree to 360 degrees. Then, when a scroll key (not shown) of the user terminal is operated, the area of the omnidirectional image 281 of the database 28 is accessed via the ring counter, so that the landscape image shown in FIG. In this case, the user sequentially scrolls in the leftward or rightward direction (that is, the direction from 1 degree to 360 degrees or the direction from 360 degrees to 1 degree) so that all the images of the omnidirectional images 281 in the database 28 can be displayed. At this time, the link coordinate data 282 shown in FIG. 6B is also scrolled by simultaneously and simultaneously shifting the area of the link coordinate data 282 in the database 28.

【0031】即ち、ユーザ端末に全ての全方位画像28
1及び全てのリンク用座標データ282が記憶できない
場合は、画面作成センタ2の制御部30は、データベー
ス28内の図6(a)に示す全方位画像281のうち、
まずユーザ端末に記憶可能な所定量の部分全方位画像2
81A及びこの部分全方位画像281Aに対応する図6
(b)のリンク用座標データ282Aを取り出してユー
ザ端末に送信し表示させるとともに、送信したデータベ
ース28内の部分全方位画像のアドレス情報を内蔵メモ
リに記憶する。こうして、ユーザ端末にデータベース2
8内の部分全方位画像281Aが表示されているとき
に、ユーザ端末のスクロールキーが操作されると、その
操作情報がネットワーク3を介して画面作成センタ2へ
送られる。
That is, all omnidirectional images 28 are stored in the user terminal.
1 and all the link coordinate data 282 cannot be stored, the control unit 30 of the screen creation center 2 selects one of the omnidirectional images 281 shown in FIG.
First, a predetermined amount of partial omnidirectional image 2 that can be stored in the user terminal 2
FIG. 6 corresponding to 81A and the partial omnidirectional image 281A.
The link coordinate data 282A of (b) is taken out and transmitted to the user terminal for display, and the transmitted address information of the partial omnidirectional image in the database 28 is stored in the built-in memory. Thus, the database 2 is stored in the user terminal.
When the scroll key of the user terminal is operated while the partial omnidirectional image 281A in 8 is displayed, the operation information is sent to the screen creation center 2 via the network 3.

【0032】この場合、画面作成センタ2の制御部30
はデータベース28の全方位画像281の記憶領域を、
現在ユーザ端末に表示されている部分全方位画像281
Aの中心領域Oのアドレスを起点として、図6(a)に
示すように例えば右方向に一定容量M分シフト(スクロ
ール)し、そのシフトM分を含む所定量の部分全方位画
像をデータベース28から取り出してネットワーク3を
介しユーザ端末に送り表示させ、かつ送信したデータベ
ース28内の部分全方位画像のアドレス情報を内蔵メモ
リに記憶する。また、このとき制御部30は、データベ
ース28のリンク用座標データ282の領域を前記全方
位画像281の部分シフトに連動して図6(b)に示す
ように右方向に前記一定容量M分シフトし、所定量の部
分リンク用座標データを併せて送信する。
In this case, the control unit 30 of the screen creation center 2
Represents the storage area of the omnidirectional image 281 of the database 28,
Partial omnidirectional image 281 currently displayed on the user terminal
Starting from the address of the central region O of A, as shown in FIG. 6 (a), for example, the image is shifted (scrolled) to the right by a predetermined capacity M and a predetermined amount of partial omnidirectional image including the shift M is stored in the database 28. And sends it to the user terminal via the network 3 for display, and stores the transmitted address information of the partial omnidirectional image in the database 28 in the built-in memory. At this time, the control unit 30 shifts the area of the link coordinate data 282 of the database 28 rightward by the fixed capacity M as shown in FIG. 6B in conjunction with the partial shift of the omnidirectional image 281. Then, a predetermined amount of partial link coordinate data is transmitted together.

【0033】このようにして、ユーザ端末にはデータベ
ース28中の全方位画像281の全てが表示可能になる
とともに、前記スクロール操作によってはじめて表示さ
れた画像をクリックした場合でも、ユーザ端末は、前記
全方位画像281と連動して一定容量分シフトされた対
応するリンク用座標データ282を得ているため、画面
作成センタ2の制御部30は的確にリンク先を指示する
ことができる。
In this way, the user terminal can display all of the omnidirectional images 281 in the database 28, and even if the image displayed for the first time by the scroll operation is clicked, the user terminal can display the omnidirectional image 281. Since the corresponding link coordinate data 282 shifted by a certain capacity in conjunction with the azimuth image 281 has been obtained, the control unit 30 of the screen creation center 2 can accurately instruct the link destination.

【0034】また、ユーザ端末の表示部には、データベ
ース28の全方位画像281の全ての画像は表示できな
いが、ユーザ端末の図示しないメモリに前記全方位画像
281の全ての画像及びリンク用座標データ282の全
てが記憶可能な場合は、次のように構成することもでき
る。この場合、ユーザ端末の前記全方位画像281を記
憶するメモリのアドレスはデータベース28の全方位画
像の記憶領域と同様、リングカウンタによりアクセスさ
れるものとし、かつデータベース28の全方位画像記憶
領域の各アドレスはユーザ端末のメモリの各アドレスに
対応しているものとする。
Although the display section of the user terminal cannot display all the images of the omnidirectional image 281 of the database 28, all the images of the omnidirectional image 281 and the coordinate data for link are stored in a memory (not shown) of the user terminal. If all of 282 can be stored, the following configuration can be adopted. In this case, the address of the memory for storing the omnidirectional image 281 of the user terminal is assumed to be accessed by a ring counter, similarly to the omnidirectional image storage area of the database 28, and each of the omnidirectional image storage areas of the database 28 The address corresponds to each address in the memory of the user terminal.

【0035】このような前提をもとに、ユーザ画面作成
センタ2の制御部30は、まずユーザ端末にデータベー
ス28の全方位画像281及びリンク用座標データ28
2を送信する。すると、ユーザ端末ではこれらをメモリ
に記憶するとともに、任意の開始部から画面に表示でき
るだけの部分全方位画像(例えば図6(a)の部分全方
位画像281A)をメモリから取り出して表示部に表示
する一方、表示している部分全方位画像に関連づけてリ
ンク用座標データのアドレスを記憶する。
Based on this premise, the control unit 30 of the user screen creation center 2 first sends the omnidirectional image 281 of the database 28 and the link coordinate data 28 to the user terminal.
Send 2. Then, in the user terminal, these are stored in the memory, and a partial omnidirectional image (for example, the partial omnidirectional image 281A in FIG. 6A) that can be displayed on the screen from an arbitrary start portion is extracted from the memory and displayed on the display unit. On the other hand, the address of the link coordinate data is stored in association with the displayed partial omnidirectional image.

【0036】このような状況下において、ユーザ端末側
でスクロール操作が行われると、ユーザ端末は自身のメ
モリのアドレスを一定容量M分シフトし、シフトした容
量M分を含む部分全方位画像をメモリから取り出して表
示する。このとき、ユーザ端末は表示している部分全方
位画像に関連づけて記憶しているリンク用座標データの
アドレスを更新する。このように、ユーザ端末の表示部
に全方位画像281内の全画像が表示できない場合で
も、ユーザ端末のメモリをシフトすることにより、ユー
ザ端末側で全方位画像281の全ての画像が表示でき
る。この結果、画面作成センタ2では、ユーザ端末側で
スクロール操作を行う毎に部分全方位画像を配信する必
要がなく、システムを効率良く使用できる。
In such a situation, when a scroll operation is performed on the user terminal side, the user terminal shifts the address of its own memory by the fixed capacity M and stores the partial omnidirectional image including the shifted capacity M in the memory. And display it. At this time, the user terminal updates the address of the link coordinate data stored in association with the displayed partial omnidirectional image. As described above, even when all the images in the omnidirectional image 281 cannot be displayed on the display unit of the user terminal, all the images of the omnidirectional image 281 can be displayed on the user terminal side by shifting the memory of the user terminal. As a result, the screen creation center 2 does not need to distribute a partial omnidirectional image every time the user terminal performs a scroll operation, and can use the system efficiently.

【0037】図8は、図12に示す街頭設置部1の全方
位カメラ11の近傍に設置される風向・風速センサ15
の形状を示す図である。この風向・風速センサ15は、
4個の各圧力センサ15A〜15Dからなり、各圧力セ
ンサ15A〜15Dは円形状の取付部150の外周にそ
れぞれ90度毎に取り付けられる。こうして取付部15
0に90度の間隔をもって取り付けられた各圧力センサ
15A〜15Dが、図9に示すように、それぞれ北
(N)、東(E)、南(S)、西(W)の方向に向くよ
う取付部150を設置すると、図9に示す北東方向の風
力Fはそれぞれ北方向及び東方向を向く各圧力センサ1
5A、15Bのみで受け、それぞれ南方向及び西方向を
向く他の圧力センサ15C,15Dは風力Fを受けな
い。
FIG. 8 shows a wind direction / wind speed sensor 15 installed near the omnidirectional camera 11 in the street installation section 1 shown in FIG.
It is a figure showing the shape of. This wind direction / wind speed sensor 15
The pressure sensor 15 includes four pressure sensors 15A to 15D. The pressure sensors 15A to 15D are mounted on the outer periphery of the circular mounting portion 150 at every 90 degrees. Thus, the mounting portion 15
As shown in FIG. 9, the pressure sensors 15A to 15D attached at 90 ° intervals are oriented in the directions of north (N), east (E), south (S), and west (W), respectively. When the mounting portion 150 is installed, the wind force F in the northeast direction shown in FIG.
The other pressure sensors 15C and 15D, which are received only by 5A and 15B, respectively, and directed in the south and west directions, do not receive the wind F.

【0038】この場合、北(N)方向を基準とし、この
北(N)方向と前記北東方向の風力Fの方向とのなす角
度をθ(即ち、風向θ)とすると、北(N)方向を向く
圧力センサ15Aの感知面の受ける風力はFcosθと
なる。ここで、各圧力センサ15A〜15Dの各ゲイン
をそれぞれ等しくkとすると、圧力センサ15Aの検出
出力OUT1は OUT1=k・Fcosθ (1) となる。また、東(E)を向く圧力センサ15Bの検出
出力OUT2は、 OUT2=k・Fsinθ (2) となる。
In this case, when the angle between the north (N) direction and the direction of the wind F in the northeast direction is defined as θ (that is, the wind direction θ) with reference to the north (N) direction, the north (N) direction The wind force received by the sensing surface of the pressure sensor 15A facing the direction becomes Fcos θ. Here, assuming that the gains of the pressure sensors 15A to 15D are respectively equal to k, the detection output OUT1 of the pressure sensor 15A is as follows: OUT1 = k · Fcos θ (1) Further, the detection output OUT2 of the pressure sensor 15B facing east (E) is as follows: OUT2 = k · Fsin θ (2)

【0039】ここで、式(1)、(2)から、 OUT1/cosθ=OUT2/sinθ=k・F (3) となり、さらに式(3)から、 tanθ=OUT2/OUT1 (4) となる。Here, from the equations (1) and (2), OUT1 / cos θ = OUT2 / sin θ = k · F (3), and from the equation (3), tan θ = OUT2 / OUT1 (4)

【0040】そして、式(4)から、風向θは θ=tan-1OUT2/OUT1 (5) として求められ、かつ、式(5)で求めた風向θを、式
(1)を変形した式(6)、即ち、 F=OUT1/k・cosθ (6) に代入することにより、風速(即ち、風力)Fを算出す
る。このような、風速Fの計算を他の圧力センサ(この
例では、圧力センサ15B)についても同様に行い、計
算の結果、最も値の大きい風速Fを採用する。
From equation (4), the wind direction θ is obtained as θ = tan −1 OUT2 / OUT1 (5), and the wind direction θ obtained by equation (5) is obtained by modifying equation (1). (6) That is, the wind speed (ie, wind power) F is calculated by substituting into F = OUT1 / k · cos θ (6). Such calculation of the wind speed F is similarly performed for the other pressure sensors (the pressure sensor 15B in this example), and as a result of the calculation, the wind speed F having the largest value is adopted.

【0041】図10は各圧力センサ15A〜15Dの各
出力から風向及び風速を算出する風向・風速解析部16
の構成を示す図であり、風向・風速解析部16は、各圧
力センサ15A〜15Dから出力されたアナログ信号を
デジタル信号に変換するA/D変換器161〜164
と、A/D変換器161〜164のデジタル信号を入力
して前述した計算を行い、風向及び風速情報として出力
するCPU160とからなる。そして、CPU160に
より演算された風向及び風速情報は図12に示す伝送制
御部17により、伝送路インタフェース18を介して画
面作成センタ2に送られ、この風向・風速センサ15の
近傍に固定配置された全方位カメラ11の撮影画像と合
成され、上述したようにデータベース28に記憶される
とともに、ユーザに提供される。
FIG. 10 shows a wind direction / wind speed analysis unit 16 for calculating the wind direction and wind speed from each output of each of the pressure sensors 15A to 15D.
And a wind direction / wind speed analyzer 16 converts A / D converters 161 to 164 that convert analog signals output from the pressure sensors 15A to 15D into digital signals.
And a CPU 160 that inputs the digital signals of the A / D converters 161 to 164, performs the above-described calculation, and outputs the information as wind direction and wind speed information. Then, the wind direction and wind speed information calculated by the CPU 160 is sent to the screen creation center 2 via the transmission path interface 18 by the transmission control unit 17 shown in FIG. 12, and is fixedly arranged near the wind direction / wind speed sensor 15. The image is synthesized with the image captured by the omnidirectional camera 11, stored in the database 28 as described above, and provided to the user.

【0042】図11を参照して、風向・風速解析部16
のCPU160による風向・風速の演算についてさらに
具体的に説明する。図11(a)に示すように、4つの
各圧力センサ15A、15B、15C、15Dをそれぞ
れ90度毎に配置し、4つの圧力センサの検出出力から
風の風速及び方向を算出する。ここで、各圧力センサ1
5A、15B、15C、15Dは比較的狭い範囲に配置
されているため、検出対象となる風は各センサに一様に
当たる。
Referring to FIG. 11, wind direction / wind speed analysis unit 16
The calculation of the wind direction / wind speed by the CPU 160 will be described more specifically. As shown in FIG. 11A, the four pressure sensors 15A, 15B, 15C, and 15D are arranged at 90 ° intervals, and the wind speed and direction of the wind are calculated from the detection outputs of the four pressure sensors. Here, each pressure sensor 1
Since 5A, 15B, 15C, and 15D are arranged in a relatively narrow range, the wind to be detected uniformly hits each sensor.

【0043】いま、風力Fの風が、図11(a)の基軸
(即ち、センサ15Aと15Cを結ぶ軸)に対し20度
の角度をもって一様に当たっているものとすると、セン
サ15Aには図11(b)に示すように20度の角度を
もって当たる。この場合、センサ15Aが感知する圧力
は、その水平成分である F・cos20゜=F×0.939 (7) となる。ここで、Fを一定とすると、圧力センサ15A
において式(7)に示す値と同一値となるのは、上記基
軸に対し160度の角度をもった風が当たった場合のみ
である。
Now, assuming that the wind of the wind F is uniformly hitting the base axis of FIG. 11A (ie, the axis connecting the sensors 15A and 15C) at an angle of 20 degrees, the sensor 15A has It hits at an angle of 20 degrees as shown in (b). In this case, the pressure sensed by the sensor 15A is the horizontal component F · cos20 ゜ = F × 0.939 (7). Here, assuming that F is constant, the pressure sensor 15A
In the above, the value which is the same as the value shown in the equation (7) is obtained only when a wind having an angle of 160 degrees with respect to the base axis is applied.

【0044】一方、圧力センサ15Dが感知する圧力
は、図11(c)に示すように、 F・cos(−70゜)=F×0.342 (8) となる。ここで、圧力センサ15Dにおいて式(8)に
示す値と同一値となるのは、上記基軸に対し110度の
角度をもった風が当たった場合のみである。この圧力セ
ンサ15Dにおける110度という値は、前記圧力セン
サ15Aの160度という値と一致せず、したがってこ
の場合、圧力センサ15Aの出力値と圧力センサ15D
の出力値の比から風向を算出することが可能になる。ま
た、この場合、各圧力センサ15A,15Dの出力の大
きさから本来の風の風力(風速)Fを算出することがで
きる。
On the other hand, the pressure sensed by the pressure sensor 15D is F · cos (−70 °) = F × 0.342 (8) as shown in FIG. Here, the pressure sensor 15D has the same value as the value shown in Expression (8) only when the wind having an angle of 110 degrees with respect to the base axis hits. The value of 110 degrees in the pressure sensor 15D does not match the value of 160 degrees of the pressure sensor 15A, and in this case, the output value of the pressure sensor 15A and the pressure sensor 15D
It is possible to calculate the wind direction from the ratio of the output values. In this case, the wind power (wind speed) F of the original wind can be calculated from the magnitude of the output of each of the pressure sensors 15A and 15D.

【0045】なお、各圧力センサ15A〜15Dは、そ
れぞれその感知面に対し0度または180度の角度をも
った風が当たってもその検出出力を生じない。したがっ
て、図11(d)のように例えば基軸に対し水平に当た
る風の風力Fは、圧力センサ15B〜15Dでは感知さ
れず基軸に垂直に配置された1つの圧力センサ15Aの
みで検出することができる。なお、このとき圧力センサ
15Aの裏側に位置する圧力センサ15Cの感知面で
は、前記風力Fによる負圧を感知するが、その負圧を精
度よく検知して出力できるようなセンサを用いれば、さ
らに精度の高い風向・風速センサ15を提供できる。
Each of the pressure sensors 15A to 15D does not produce a detection output even when wind having an angle of 0 or 180 degrees hits its sensing surface. Therefore, as shown in FIG. 11D, for example, the wind power F of the wind hitting the base axis horizontally can not be detected by the pressure sensors 15B to 15D but can be detected by only one pressure sensor 15A arranged perpendicular to the base axis. . At this time, on the sensing surface of the pressure sensor 15C located on the back side of the pressure sensor 15A, the negative pressure due to the wind force F is sensed. However, if a sensor capable of accurately detecting and outputting the negative pressure is used, A highly accurate wind direction / wind speed sensor 15 can be provided.

【0046】図11(d)の例は、圧力センサ15Aに
対し垂直に風が当たり圧力センサ15Aのみで風を検知
する場合の例であり、このように圧力センサの感知面に
対し垂直(90度)に風が当たった場合にその圧力セン
サは最大の検知出力を発生する。次に圧力センサ15A
に対し角度をもった風が当たる場合を考える。圧力セン
サ15Aの感知面に対し図11(e)に示すような角度
で風が当たった場合、その角度が0度〜180度の範囲
にある感知面を有する圧力センサ15Bが検出出力を発
生し、0度〜180度の範囲外にある感知面を有する圧
力センサ15C、15Dは検出出力を発生しない。従っ
て、1つまたは2つの圧力センサで風向・風力を測定す
ることができる。このことは全ての圧力センサについて
も同様であり、この結果、360度全ての方向からの風
を測定することができる。即ち、4つの圧力センサ15
A〜15Dをそれぞれ90度毎の角度をもって配置する
ことにより360度全ての方向からの風を測定すること
ができる。このようにこの風向・風力センサ15は、従
来センサのように可動部分が無いため信頼性が向上し、
したがってメンテナンスが不要となり、無人の場所に長
期間設置できる。
FIG. 11D shows an example in which the wind is applied perpendicularly to the pressure sensor 15A and the wind is detected only by the pressure sensor 15A. The pressure sensor generates the maximum detection output when the wind hits (degree). Next, the pressure sensor 15A
Consider a case in which an angled wind hits. When the wind strikes the sensing surface of the pressure sensor 15A at an angle as shown in FIG. 11E, the pressure sensor 15B having the sensing surface whose angle is in the range of 0 to 180 degrees generates a detection output. , 0C to 180D, the pressure sensors 15C and 15D having a sensing surface outside the range do not generate a detection output. Therefore, the wind direction / wind force can be measured by one or two pressure sensors. This is the same for all pressure sensors. As a result, wind from all directions of 360 degrees can be measured. That is, four pressure sensors 15
By arranging A to 15D at an angle of 90 degrees, winds from all directions of 360 degrees can be measured. As described above, since the wind direction / wind sensor 15 has no movable parts unlike the conventional sensor, the reliability is improved,
Therefore, no maintenance is required, and it can be installed in an unmanned place for a long time.

【0047】なお、本実施の形態では、4つの圧力セン
サ15A〜15Dをそれぞれ90度毎の角度をもって配
置し、それぞれ4つの各圧力センサ15A〜15Dの感
知面で風力を感知し風向・風速を測定するようにした
が、最低限4つのセンサを設ければ良く、5つ以上のセ
ンサを設けて各センサをそれぞれ均等な角度をもって配
置し測定させるようにしても良い。また、本センサは風
力の測定に限定されるものではなく、他の流体、即ちガ
スなどの気体や、水などの液体の流速、流量及びその方
向の測定に同様に適用することができる。
In this embodiment, the four pressure sensors 15A to 15D are arranged at an angle of 90 degrees, and the wind direction and wind speed are detected by sensing the wind force on the sensing surfaces of the four pressure sensors 15A to 15D. Although the measurement is performed, it is sufficient that at least four sensors are provided, and five or more sensors may be provided, and the sensors may be arranged at equal angles and measured. In addition, the present sensor is not limited to the measurement of wind force, but can be similarly applied to the measurement of the flow velocity, flow rate, and direction of another fluid, that is, a gas such as a gas, or a liquid such as water.

【0048】[0048]

【発明の効果】以上説明したように本発明によれば、流
量向検出装置を、円状の取付部と、取付部の周囲にこの
取付部の中点を中心として均等な角度間隔で取り付けら
れた少なくとも4つの圧力センサとから構成し、かつ各
圧力センサは、それぞれ自身の感知面に対し0度から1
80度の範囲の角度を有する流体の流量の検出を行うと
ともに、自身の感知面に対して90度の角度を有する流
体の流量を最大検出値として出力するようにしたので、
流体の流量とその方向が同時に測定可能になり、かつ従
来のセンサのように可動部分が無いため信頼性が向上
し、したがってメンテナンスが不要となり、無人の場所
に長期間設置できる。また、各圧力センサは所定の流向
を有する流体の流量を、それぞれ自身の感知面に対する
90度の角度成分の流量に変換して検出値として出力
し、流体の流量及び方向を演算する演算部は、各圧力セ
ンサの各検出値の比率に基づき前記流体の流向を算出す
るとともに、算出した前記流向と各圧力センサの各検出
値とに基づき流体の流量を算出するようにしたので、流
体の流量と方向を、360度全ての方向にわたって精度
良く測定できる。また、本発明は、ネットワークと、ネ
ットワークに接続されるユーザ端末と、所定の場所に設
置される全方位カメラと、全方位カメラの近傍に設置さ
れ風力を検出するセンサと、全方位カメラにより撮影さ
れた全方位撮影画像を処理して全方位画像としてネット
ワークを介しユーザ端末に配信し表示させるセンタとか
ら、撮影画像配信システムを構成し、センタは、全方位
カメラにより撮影された全方位撮影画像を処理して全方
位画像として生成しこの全方位画像にセンサの検出出力
に基づく風向及び風速情報を付加してユーザ端末に配信
し表示させるようにしたので、利用者はカメラが撮影す
る画像とともにその周囲の風向・風速等の情報を識別で
きる。また、センタは、全方位画像の各画像の座標を示
すリンク用座標データを、全方位撮影画像から生成した
全方位画像とともに1対のデータとしてデータベースに
記憶し、カメラの撮影範囲内に位置する情報提供者から
の提供情報を入力すると前記座標と関連づけてデータベ
ースに登録する一方、ユーザ端末に表示されている全方
位画像の各画像のうち何れかの画像が選択されると、選
択操作された画像に対応する座標を選択して、その座標
に対応する提供情報をデータベースから取り出しユーザ
端末に配信するようにしたので、利用者はカメラにより
撮影された360度の画像全てを識別することができ
る。
As described above, according to the present invention, a flow direction detecting device is mounted around a circular mounting portion and at even angular intervals around the center of the mounting portion. And at least four pressure sensors, each of which is between 0 degree and 1 degree with respect to its own sensing surface.
Since the flow rate of the fluid having an angle in the range of 80 degrees is detected and the flow rate of the fluid having an angle of 90 degrees with respect to its own sensing surface is output as the maximum detection value,
The flow rate and the direction of the fluid can be measured at the same time, and since there are no moving parts unlike the conventional sensor, the reliability is improved. Therefore, maintenance is not required, and the sensor can be installed in an unmanned place for a long time. Further, each pressure sensor converts a flow rate of the fluid having a predetermined flow direction into a flow rate of an angle component of 90 degrees with respect to its own sensing surface, outputs the detected flow rate as a detection value, and calculates a flow rate and a direction of the fluid. Since the flow direction of the fluid is calculated based on the ratio of each detection value of each pressure sensor, and the flow rate of the fluid is calculated based on the calculated flow direction and each detection value of each pressure sensor, the flow rate of the fluid And directions can be accurately measured over all directions of 360 degrees. Further, the present invention provides a network, a user terminal connected to the network, an omnidirectional camera installed at a predetermined place, a sensor installed near the omnidirectional camera to detect wind power, and an image captured by the omnidirectional camera. And a center for processing the obtained omnidirectional photographed image and distributing and displaying it as an omnidirectional image to a user terminal via a network, thereby forming a photographed image distribution system, wherein the center comprises an omnidirectional photographed image photographed by an omnidirectional camera. Is generated as an omnidirectional image, and wind direction and wind speed information based on the detection output of the sensor is added to the omnidirectional image and distributed to the user terminal for display. Information such as the wind direction and wind speed around it can be identified. The center stores link coordinate data indicating the coordinates of each image of the omnidirectional image in the database as a pair of data together with the omnidirectional image generated from the omnidirectional photographed image, and is located within the photographing range of the camera. When the information provided by the information provider is input, the information is registered in the database in association with the coordinates, and when any one of the omnidirectional images displayed on the user terminal is selected, the selection operation is performed. Since the coordinates corresponding to the image are selected, and the provided information corresponding to the coordinates is extracted from the database and distributed to the user terminal, the user can identify all the 360-degree images captured by the camera. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明を適用したシステム内の撮影装置の構
成及びこの撮影装置により撮影された画像の処理状況を
示す図である。
FIG. 1 is a diagram showing a configuration of a photographing device in a system to which the present invention is applied and a processing status of an image photographed by the photographing device.

【図2】 上記撮影装置により撮影された画像の記憶状
況を示す図である。
FIG. 2 is a diagram illustrating a storage state of an image photographed by the photographing device.

【図3】 上記撮影装置の構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a configuration of the photographing device.

【図4】 撮影装置を構成する画像処理部における撮影
画像の座標変換を説明する説明図である。
FIG. 4 is an explanatory diagram illustrating coordinate conversion of a captured image in an image processing unit included in the imaging device.

【図5】 変換された座標にしたがって前記撮影画像を
メモリに記憶する状況を示す図である。
FIG. 5 is a diagram showing a situation in which the photographed image is stored in a memory according to converted coordinates.

【図6】 画像処理部により処理された風景画像、及び
前記風景画像を構成する各画像の領域座標を示す図であ
る。
FIG. 6 is a diagram showing a landscape image processed by an image processing unit and region coordinates of each image constituting the landscape image.

【図7】 情報提供者から提供される地域情報を示す図
である。
FIG. 7 is a diagram showing regional information provided by an information provider.

【図8】 上記システムを構成する風向・風速センサの
形状を示す図である。
FIG. 8 is a diagram showing a shape of a wind direction / wind speed sensor constituting the system.

【図9】 風向・風速センサの検出出力に基づく風向・
風速の演算状況を説明する図である。
FIG. 9 shows the wind direction / wind direction based on the detection output of the wind direction / wind speed sensor.
It is a figure explaining the calculation situation of a wind speed.

【図10】 風向・風速を演算し解析する風向・風速解
析部の構成を示すブロック図である。
FIG. 10 is a block diagram illustrating a configuration of a wind direction / wind speed analysis unit that calculates and analyzes the wind direction / wind speed.

【図11】 風向・風速の具体的な演算状況を説明する
図である。
FIG. 11 is a diagram illustrating a specific calculation state of wind direction and wind speed.

【図12】 上記システムの構成を示すブロック図であ
る。
FIG. 12 is a block diagram showing a configuration of the system.

【符号の説明】 1A,1B…街頭設置部、2…画面作成センタ、3…ネ
ットワーク、4A〜4D…ユーザ端末、11…全方位カ
メラ、12…画像処理部、12A…変換部、12B…復
調部、15…風向・風速センサ、15A〜15D…圧力
センサ、16…風向・風速解析部、23…データベース
作成更新部、24…リンクテーブル、26A,26B…
地域情報収集解析部、28…データベース、30…制御
部、111…円錐鏡、112…カメラ本体、120…撮
影画像、124…無効エリア、130,140…メモ
リ、131,141…メモリ素子、150…取付部、1
60…CPU、281…全方位画像、282…リンク用
座標データ、291〜29n…地域情報。
[Description of Signs] 1A, 1B: Street setting unit, 2: Screen creation center, 3: Network, 4A to 4D: User terminal, 11: Omnidirectional camera, 12: Image processing unit, 12A: Conversion unit, 12B: Demodulation 15: Wind direction / wind speed sensor, 15A to 15D: Pressure sensor, 16: Wind direction / wind speed analysis unit, 23: Database creation / update unit, 24: Link table, 26A, 26B ...
Regional information collection / analysis unit, 28 database, 30 control unit, 111 conical mirror, 112 camera body, 120 captured image, 124 invalid area, 130, 140 memory, 131, 141 memory element, 150 Mounting part, 1
60 CPU, 281 omnidirectional image, 282 link coordinate data, 291 to 29n area information.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 流体の流量及び流向を検出する流量向検
出装置において、 円状の取付部と、 前記取付部の周囲にこの取付部の中点を中心として均等
な角度間隔で取り付けられ前記流体の流量及び流向を検
出する少なくとも4つの圧力センサとを備え、各圧力セ
ンサは、それぞれ自身の感知面に対し0度から180度
の範囲の角度を有する流体の流量の検出を行うととも
に、自身の感知面に対して90度の角度を有する流体の
流量を最大検出値として出力することを特徴とする流量
向検出装置。
1. A flow direction detecting device for detecting a flow rate and a flow direction of a fluid, comprising: a circular mounting portion; and a fluid mounting portion which is mounted around the mounting portion at equal angular intervals around a center point of the mounting portion. At least four pressure sensors for detecting the flow rate and the flow direction of each fluid, each pressure sensor detecting the flow rate of a fluid having an angle in a range of 0 to 180 degrees with respect to its sensing surface, and detecting its own flow rate. A flow direction detection device for outputting a flow rate of a fluid having an angle of 90 degrees with respect to a sensing surface as a maximum detection value.
【請求項2】 請求項1において、 前記圧力センサの出力を入力して前記流体の流量及び流
向を演算する演算部を設け、前記演算部は、前記複数の
圧力センサのうち少なくとも1つの圧力センサの出力に
基づいて前記流体の流量及び流向を演算することを特徴
とする流量向検出装置。
2. The pressure sensor according to claim 1, further comprising: a calculation unit configured to calculate the flow rate and the flow direction of the fluid by inputting the output of the pressure sensor, wherein the calculation unit includes at least one of the plurality of pressure sensors. A flow direction detection device for calculating the flow amount and the flow direction of the fluid based on the output of the flow direction.
【請求項3】 請求項2において、 各圧力センサは所定の流向を有する前記流体の流量を、
それぞれ自身の感知面に対する90度の角度成分の流量
に変換して前記検出値として出力し、前記演算部は、各
圧力センサの各検出値の比率に基づき前記流体の流向を
算出するとともに、算出した前記流向と各圧力センサの
各検出値とに基づき前記流体の流量を算出することを特
徴とする流量向検出装置。
3. The pressure sensor according to claim 2, wherein each pressure sensor measures a flow rate of the fluid having a predetermined flow direction.
Each is converted into a flow rate of an angle component of 90 degrees with respect to its own sensing surface and output as the detection value, and the calculation unit calculates and calculates the flow direction of the fluid based on a ratio of each detection value of each pressure sensor. A flow direction detection device for calculating a flow rate of the fluid based on the flow direction and each detection value of each pressure sensor.
【請求項4】 ネットワークと、ネットワークに接続さ
れるユーザ端末と、所定の場所に設置される全方位カメ
ラと、前記全方位カメラの近傍に設置され風力を検出す
るセンサと、全方位カメラにより撮影された全方位撮影
画像を処理して全方位画像として前記ネットワークを介
し前記ユーザ端末に配信し表示させるセンタとからなる
撮影画像配信システムであって、 前記センタは、 前記全方位カメラにより撮影された前記全方位撮影画像
を処理して全方位画像として生成する画像処理部と、 前記センサの検出出力に基づいて風向及び風速を演算す
るとともに、演算した風向及び風速情報を前記画像処理
部により生成された全方位画像に付加する情報付加手段
と、 前記風向及び風速情報が付加された全方位画像をユーザ
端末に配信し表示させる制御手段とを備えたことを特徴
とする撮影画像配信システム。
4. A network, a user terminal connected to the network, an omnidirectional camera installed at a predetermined location, a sensor installed near the omnidirectional camera for detecting wind power, and photographing by the omnidirectional camera. And a center for processing the obtained omnidirectional photographed image and distributing and displaying the omnidirectional image as the omnidirectional image to the user terminal via the network, wherein the center is photographed by the omnidirectional camera. An image processing unit that processes the omnidirectional captured image to generate an omnidirectional image, and calculates a wind direction and a wind speed based on a detection output of the sensor, and calculates the calculated wind direction and wind speed information by the image processing unit. Information adding means for adding the omnidirectional image to the user terminal, distributing and displaying the omnidirectional image with the wind direction and wind speed information added to the user terminal. Photographed image distribution system is characterized in that a control unit that.
【請求項5】 請求項4において、 前記センタは、 予め前記全方位画像を形成する各画像と座標とが関連づ
けられリンク用座標データとして記憶されるテーブル
と、 前記画像処理部により生成された全方位画像と前記テー
ブルのリンク用座標データとを1対のデータとして記憶
するデータベースと、 前記全方位カメラの撮影範囲内に位置する情報提供者か
らの提供情報を入力すると前記提供情報を前記座標と関
連づけてデータベースに登録する登録手段とを備え、前
記制御手段は、前記全方位画像の各画像のうち何れかの
画像を選択する選択操作情報が前記ユーザ端末から送信
されると、選択操作された画像に対応する前記リンク用
座標データの座標を選択し、選択した座標に対応する提
供情報をデータベースから取り出して前記ユーザ端末に
配信することを特徴とする撮影画像配信システム。
5. The image processing device according to claim 4, wherein the center is a table in which each image forming the omnidirectional image is associated with coordinates in advance and stored as link coordinate data; A database that stores the azimuth image and the link coordinate data of the table as a pair of data; and inputting the provided information from an information provider located within the shooting range of the omnidirectional camera, the provided information is referred to as the coordinates. Registration means for associating and registering in the database, wherein the control means performs selection operation when selection operation information for selecting any one of the images of the omnidirectional images is transmitted from the user terminal. The coordinates of the link coordinate data corresponding to the image are selected, the provided information corresponding to the selected coordinates is retrieved from the database, and the user terminal is selected. The captured image distribution system characterized in that it delivered to.
JP5928799A 1999-03-05 1999-03-05 Flow rate direction detection device and photographed image distribution system Pending JP2000258555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5928799A JP2000258555A (en) 1999-03-05 1999-03-05 Flow rate direction detection device and photographed image distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5928799A JP2000258555A (en) 1999-03-05 1999-03-05 Flow rate direction detection device and photographed image distribution system

Publications (1)

Publication Number Publication Date
JP2000258555A true JP2000258555A (en) 2000-09-22

Family

ID=13109036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5928799A Pending JP2000258555A (en) 1999-03-05 1999-03-05 Flow rate direction detection device and photographed image distribution system

Country Status (1)

Country Link
JP (1) JP2000258555A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082562A (en) * 2019-05-08 2019-08-02 唐山学院 A kind of mean wind direction calculation method based on probability statistics
CN111752075A (en) * 2020-05-27 2020-10-09 方晓霞 Wind direction auxiliary device for outdoor photography capture based on internet
CN114324975A (en) * 2021-12-29 2022-04-12 航天科工火箭技术有限公司 Wind direction determination method, device, equipment and medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082562A (en) * 2019-05-08 2019-08-02 唐山学院 A kind of mean wind direction calculation method based on probability statistics
CN111752075A (en) * 2020-05-27 2020-10-09 方晓霞 Wind direction auxiliary device for outdoor photography capture based on internet
CN114324975A (en) * 2021-12-29 2022-04-12 航天科工火箭技术有限公司 Wind direction determination method, device, equipment and medium
CN114324975B (en) * 2021-12-29 2024-01-09 航天科工火箭技术有限公司 Wind direction determining method, device, equipment and medium

Similar Documents

Publication Publication Date Title
JP5150310B2 (en) Geographic data collection device
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US8531514B2 (en) Image providing system and image providing method
JP2006520891A (en) Method and apparatus for image processing in surveying instrument
US11609345B2 (en) System and method to determine positioning in a virtual coordinate system
JP5651372B2 (en) Post information control apparatus, post information control system, and post information control method
JP4077385B2 (en) Global coordinate acquisition device using image processing
JPH06284330A (en) Monitor camera controller linked with map information
CN107193820B (en) Position information acquisition method, device and equipment
JP2000261705A (en) Photographing device
JP2010217984A (en) Image detector and image detection method
JP2000258555A (en) Flow rate direction detection device and photographed image distribution system
WO2019106847A1 (en) Position information system using camera-captured image and camera-mounted information device used therein
JP2000261783A (en) Photographed picture distribution system
JP2000134537A (en) Image input device and its method
JPH09153131A (en) Method and device for processing picture information and picture information integrating system
JPH10185563A (en) Photogrammetry target and photogrammetry using the photogrammetry target
CN115542277A (en) Radar normal calibration method, device, system, equipment and storage medium
US20050265630A1 (en) Illustration producing apparatus, illustration producing method, control program and readable recording medium
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
CN109345633B (en) Panoramic three-dimensional registration system and method for augmented reality assembly
CN110148080B (en) Spatial information acquisition device and spatial information acquisition method
JP2012064071A (en) Information system, terminal device, advertisement output method, and program
CN110132422A (en) Air conditioner and its thermometric image split-joint method
JP2004350154A (en) Image projector, image processing apparatus and method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040406

A711 Notification of change in applicant

Effective date: 20040506

Free format text: JAPANESE INTERMEDIATE CODE: A712

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040803