JP6941212B2 - Image analysis system, image analysis method, and image analysis program - Google Patents

Image analysis system, image analysis method, and image analysis program Download PDF

Info

Publication number
JP6941212B2
JP6941212B2 JP2020148535A JP2020148535A JP6941212B2 JP 6941212 B2 JP6941212 B2 JP 6941212B2 JP 2020148535 A JP2020148535 A JP 2020148535A JP 2020148535 A JP2020148535 A JP 2020148535A JP 6941212 B2 JP6941212 B2 JP 6941212B2
Authority
JP
Japan
Prior art keywords
sky
image
image analysis
gnss
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020148535A
Other languages
Japanese (ja)
Other versions
JP2021067673A (en
Inventor
洋平 織田
洋平 織田
睦 村上
睦 村上
▲祥▼太 花井
▲祥▼太 花井
智紀 横田
智紀 横田
幸仁 長田
幸仁 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Enabler Ltd
Original Assignee
SoftBank Corp
Enabler Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp, Enabler Ltd filed Critical SoftBank Corp
Priority to JP2020148535A priority Critical patent/JP6941212B2/en
Publication of JP2021067673A publication Critical patent/JP2021067673A/en
Application granted granted Critical
Publication of JP6941212B2 publication Critical patent/JP6941212B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像解析システム、画像解析方法、および画像解析プログラムに関する。 The present disclosure relates to an image analysis system, an image analysis method, and an image analysis program.

カーナビゲーションシステムのみならず、高精度な測位が要求される測量や土木建設、農業、地震予知や地殻変動研究などの多様な分野において、位置情報を提供する手段として、全地球型航法衛星システム(GNSS:Global Navigation Satellite System)が利用されている。 Global navigation satellite system (as a means of providing position information in various fields such as surveying, civil engineering construction, agriculture, earthquake prediction, and crustal movement research, which require highly accurate positioning, as well as car navigation systems. GNSS: Global Navigation Satellite System) is used.

GNSSでは、地球上に設置されるGNSSアンテナが、地球周回軌道を周回する少なくとも4基の測位衛星からGNSS信号を受信することにより測位する。高精度な測位を行うためにはGNSS信号を常に観測する必要があり、GNSSアンテナと測位衛星との間に建物や樹木などの遮蔽物があると測位精度が劣化する。 In GNSS, a GNSS antenna installed on the earth performs positioning by receiving GNSS signals from at least four positioning satellites orbiting the earth. It is necessary to constantly observe the GNSS signal in order to perform high-precision positioning, and if there is a shield such as a building or a tree between the GNSS antenna and the positioning satellite, the positioning accuracy deteriorates.

そのため、高精度な測位を行うためには、GNSSアンテナの設置位置が非常に重要になってくる。しかしながら、測位衛星は絶えず地球周回軌道を周回しているため、GNSSアンテナの受信状況を評価するためには少なくとも24時間、測位衛星を捕捉し続ける必要がある。そのため、1つの設置位置を評価するだけでも非常に時間を要し、各地に設置する、例えば、数百以上の設置位置を決定するためには膨大な時間を要してしまう。 Therefore, the installation position of the GNSS antenna becomes very important for highly accurate positioning. However, since the positioning satellite is constantly orbiting the earth, it is necessary to keep capturing the positioning satellite for at least 24 hours in order to evaluate the reception status of the GNSS antenna. Therefore, it takes a very long time to evaluate only one installation position, and it takes an enormous amount of time to determine the installation positions of several hundreds or more, for example, to install them in various places.

本願は、上記に鑑みてなされたものであって、GNSSアンテナの受信状況をより短時間で評価することができる画像解析システム、画像解析方法、および画像解析プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an image analysis system, an image analysis method, and an image analysis program capable of evaluating the reception status of a GNSS antenna in a shorter time.

本願に係る画像解析システムは、第1の地点において天空動画を取得する撮影カメラと、撮影カメラから天空動画を取得し、天空動画の開始から所定時間経過後のフレームを天空画像として取得する端末装置と、端末装置から天空画像を取得し、天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、GNSSから信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する画像解析装置とを備えたことを特徴とする。 The image analysis system according to the present application is a photographing camera that acquires a sky moving image at a first point, and a terminal device that acquires a sky moving image from the photographing camera and acquires a frame after a lapse of a predetermined time from the start of the sky moving image as a sky image. Then, the sky image is acquired from the terminal device, and the sky image is filtered to extract the sky part included in the sky image, and the reception status of the GNSS antenna that receives the signal from the GNSS is evaluated. It is characterized by being equipped with an image analysis device that calculates an index value.

実施形態の一態様によれば、GNSSアンテナの受信状況をより短時間で評価することができる。 According to one aspect of the embodiment, the reception status of the GNSS antenna can be evaluated in a shorter time.

図1は、RTK測位方式を行うための情報処理システム1の構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an information processing system 1 for performing an RTK positioning method. 図2は、実施形態に係る画像解析システムの構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the image analysis system according to the embodiment. 図3は、実施形態に係る端末装置100の機能構成例を示す図である。FIG. 3 is a diagram showing a functional configuration example of the terminal device 100 according to the embodiment. 図4は、解析結果記憶部に記憶される情報の例を示す図である。FIG. 4 is a diagram showing an example of information stored in the analysis result storage unit. 図5は、実施形態に係る画像解析装置200の機能構成例を示す図である。FIG. 5 is a diagram showing a functional configuration example of the image analysis device 200 according to the embodiment. 図6は、実施形態に係る天空画像の一例を示す図である。FIG. 6 is a diagram showing an example of a sky image according to the embodiment. 図7は、実施形態に係る空の部分を抽出するための画像処理の一例を示す図である。FIG. 7 is a diagram showing an example of image processing for extracting an empty portion according to the embodiment. 図8は、実施形態に係る二値化処理のためのヒストグラムの一例を示す図である。FIG. 8 is a diagram showing an example of a histogram for the binarization process according to the embodiment. 図9は、実施形態に係る解析対象から除外する領域の一例を示す図である。FIG. 9 is a diagram showing an example of a region excluded from the analysis target according to the embodiment. 図10は、実施形態に係る解析対象から除外する水平方向領域の一例を示す図である。FIG. 10 is a diagram showing an example of a horizontal region excluded from the analysis target according to the embodiment. 図11は、実施形態に係る原画像および各処理済み画像の一例を示す図である。FIG. 11 is a diagram showing an example of the original image and each processed image according to the embodiment. 図12は、実施形態に係る天空画像と衛星軌道との合成画像の一例を示す図である。FIG. 12 is a diagram showing an example of a composite image of the sky image and the satellite orbit according to the embodiment. 図13は、実施形態に係る解析アプリの解析結果画面の一例を示す図である。FIG. 13 is a diagram showing an example of an analysis result screen of the analysis application according to the embodiment. 図14は、実施形態に係る天空画像に対する画像解析処理の流れを示すフローチャートである。FIG. 14 is a flowchart showing the flow of image analysis processing for the sky image according to the embodiment. 図15は、画像解析装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 15 is a hardware configuration diagram showing an example of a computer that realizes the function of the image analysis device.

以下に、本願に係る画像解析システム、画像解析方法、および画像解析プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る画像解析システム、画像解析方法、および画像解析プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the image analysis system, the image analysis method, and the mode for carrying out the image analysis program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the image analysis system, the image analysis method, and the image analysis program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.

まず、本実施形態を説明する前に、本実施形態によって、より短時間で受信状況を評価することができるGNSSアンテナについて説明する。GNSSアンテナは、設置位置が予め把握された基準局に搭載され、例えば、自動車などの位置情報のリアルタイム補正を行うために用いられる。例えば、自動車に搭載したGNSS受信機による位置情報のみを利用した場合(単独測位方式;1つのGNSS受信機で同時に複数の測位衛星からのGNSS信号を受信し、各GNSS衛星からの距離を算出して測位する方式)、現状、位置情報に数メートル程度の誤差が生じることがある。そこでGNSSアンテナの搭載された基準局を用いて、このような位置情報の誤差をリアルタイム補正することが考えられている(このような方式は、Real Time Kinematic(RTK)測位方式と呼ばれる)。 First, before explaining the present embodiment, a GNSS antenna capable of evaluating the reception status in a shorter time by the present embodiment will be described. The GNSS antenna is mounted on a reference station whose installation position is known in advance, and is used for real-time correction of position information of, for example, an automobile. For example, when only the position information from the GNSS receiver mounted on the vehicle is used (single positioning method; one GNSS receiver simultaneously receives GNSS signals from multiple positioning satellites and calculates the distance from each GNSS satellite. Positioning method), at present, there may be an error of several meters in the position information. Therefore, it is considered to correct such an error of position information in real time by using a reference station equipped with a GNSS antenna (such a method is called a Real Time Kinematic (RTK) positioning method).

<<RTK測位方式について>>
図1は、RTK測位方式を行うための情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、自動車6に搭載された移動局5(図示せず)と、サーバ2と、基準局3と、GNSS測位衛星4とを含むことができる。
<< About RTK positioning method >>
FIG. 1 is a diagram showing a configuration example of an information processing system 1 for performing an RTK positioning method. As shown in FIG. 1, the information processing system 1 can include a mobile station 5 (not shown) mounted on the automobile 6, a server 2, a reference station 3, and a GNSS positioning satellite 4.

RTK測位方式においては、位置を求めようとする自動車6(詳細には、移動局5)の近傍に位置する、設置位置が予め把握された複数の基準局3と、移動局5とで、GNSS測位衛星4からGNSS信号の受信を行う。次に、当該測位方式において、基準局3は、基準局3で取得した基準局3の位置情報をサーバ2または移動局5にリアルタイムで送信する。そして、サーバ2または移動局5は、基準局3の位置情報を利用して、移動局5で取得した暫定的な自動車6の位置情報に対してリアルタイムに補正を行う。RTK測位方式によれば、上述のような補正を行うことにより、GNSS信号で生じる電離層による外乱、マルチパス、時計ずれなどに起因する誤差をキャンセルすることが可能であることから、誤差を数センチメートル程度に抑えることができる。その結果、当該測位方式によれば、誤差の少ない、自動車6の位置情報を取得することが容易となる。 In the RTK positioning method, GNSS positioning is performed by a plurality of reference stations 3 whose installation positions are grasped in advance and mobile stations 5 located in the vicinity of an automobile 6 (specifically, a mobile station 5) for which a position is to be obtained. Receives GNSS signals from satellite 4. Next, in the positioning method, the reference station 3 transmits the position information of the reference station 3 acquired by the reference station 3 to the server 2 or the mobile station 5 in real time. Then, the server 2 or the mobile station 5 uses the position information of the reference station 3 to correct the temporary position information of the automobile 6 acquired by the mobile station 5 in real time. According to the RTK positioning method, it is possible to cancel the error caused by the disturbance due to the ionosphere, multipath, clock deviation, etc. caused by the GNSS signal by performing the above correction, so that the error is several centimeters. It can be suppressed to about a meter. As a result, according to the positioning method, it becomes easy to acquire the position information of the automobile 6 with a small error.

なお、RTK測位方式は、サーバ2で補正を行うサーバRTK測位方式と、移動局5で補正を行うデバイスRTK測位方式との主に2つの方式に分けることができる。 The RTK positioning method can be mainly divided into two methods: a server RTK positioning method in which the server 2 makes corrections, and a device RTK positioning method in which corrections are made by the mobile station 5.

<デバイスRTK測位方式>
移動局5は、少なくとも3つまたは4つ以上のGNSS測位衛星4のそれぞれからGSNN信号を受信する。次に、移動局5は、各GNSS信号に含まれる情報(各GNSS測位衛星4の位置情報および時刻情報)に基づき、暫定的な自動車6の位置情報(詳細には、地上における移動局5の緯度経度情報)を取得する。さらに、移動局5は、取得した暫定的な自動車6の位置情報をサーバ2へ送信する。
<Device RTK positioning method>
The mobile station 5 receives GSNN signals from each of at least three or four or more GNSS positioning satellites 4. Next, the mobile station 5 uses the information contained in each GNSS signal (position information and time information of each GNSS positioning satellite 4) to provide provisional position information of the automobile 6 (specifically, the mobile station 5 on the ground). Latitude / longitude information) is acquired. Further, the mobile station 5 transmits the acquired temporary position information of the automobile 6 to the server 2.

基準局3は、サーバ2からの配信要求に応じて、複数のGNSS測位衛星4のそれぞれからGSNN信号を受信する。次に、基準局3は、各GNSS信号に含まれる情報(各GNSS測位衛星4の位置情報および時刻情報)に基づき、基準局3の位置情報(詳細には、地上における基準局3の緯度経度情報)を取得する。さらに、基準局3は、取得した基準局3の位置情報をサーバ2へ送信する。 The reference station 3 receives the GSNN signal from each of the plurality of GNSS positioning satellites 4 in response to the distribution request from the server 2. Next, the reference station 3 obtains the position information of the reference station 3 (specifically, the latitude and longitude information of the reference station 3 on the ground) based on the information contained in each GNSS signal (position information and time information of each GNSS positioning satellite 4). get. Further, the reference station 3 transmits the acquired position information of the reference station 3 to the server 2.

サーバ2は、移動局5からの暫定的な自動車6の位置情報と、基準局3からの基準局3の位置情報とを取得する。次に、サーバ2は、記憶部260に予め格納された、各基準局3の設置位置の位置情報(詳細には、地上における基準局3の緯度経度情報)と、基準局3から受信した位置情報との差分に基づき、暫定的な自動車6の位置情報に対する補正のための補正情報を生成する。さらに、サーバ2は、生成した補正情報に基づき、暫定的な自動車6の位置情報を補正する。 The server 2 acquires the provisional position information of the automobile 6 from the mobile station 5 and the position information of the reference station 3 from the reference station 3. Next, the server 2 has the position information of the installation position of each reference station 3 (specifically, the latitude and longitude information of the reference station 3 on the ground) stored in advance in the storage unit 260, and the position information received from the reference station 3. Based on the difference, correction information for correction with respect to the provisional position information of the automobile 6 is generated. Further, the server 2 corrects the provisional position information of the automobile 6 based on the generated correction information.

<サーバRTK測位方式>
移動局5は、少なくとも3つまたは4つ以上のGNSS測位衛星4のそれぞれからGSNN信号を受信する。次に、移動局5は、各GNSS信号に含まれる情報(各GNSS測位衛星4の位置情報および時刻情報)に基づき、暫定的な自動車6の位置情報(詳細には、地上における移動局5の緯度経度情報)を取得する。さらに、移動局5は、取得した暫定的な自動車6の位置情報をサーバ2へ送信する。
<Server RTK positioning method>
The mobile station 5 receives GSNN signals from each of at least three or four or more GNSS positioning satellites 4. Next, the mobile station 5 uses the information contained in each GNSS signal (position information and time information of each GNSS positioning satellite 4) to provide provisional position information of the automobile 6 (specifically, the mobile station 5 on the ground). Latitude / longitude information) is acquired. Further, the mobile station 5 transmits the acquired temporary position information of the automobile 6 to the server 2.

基準局3は、サーバ2からの配信要求に応じて、複数のGNSS測位衛星4のそれぞれからGSNN信号を受信する。次に、基準局3は、各GNSS信号に含まれる情報(各GNSS測位衛星4の位置情報および時刻情報)に基づき、基準局3の位置情報(詳細には、地上における基準局3の緯度経度情報)を取得する。さらに、基準局3は、取得した基準局3の位置情報をサーバ2へ送信する。 The reference station 3 receives the GSNN signal from each of the plurality of GNSS positioning satellites 4 in response to the distribution request from the server 2. Next, the reference station 3 obtains the position information of the reference station 3 (specifically, the latitude and longitude information of the reference station 3 on the ground) based on the information contained in each GNSS signal (position information and time information of each GNSS positioning satellite 4). get. Further, the reference station 3 transmits the acquired position information of the reference station 3 to the server 2.

サーバ2は、移動局5からの暫定的な自動車6の位置情報と、基準局3からの基準局3の位置情報とを取得する。サーバ2は、各基準局3の設置位置の位置情報と、基準局3から受信した基準局3の位置情報との差分に基づき、暫定的な自動車6の位置情報に対する補正のための補正情報を生成する。さらに、サーバ2は、生成した補正情報を移動局5に送信する。 The server 2 acquires the provisional position information of the automobile 6 from the mobile station 5 and the position information of the reference station 3 from the reference station 3. The server 2 generates correction information for correction with respect to the provisional position information of the automobile 6 based on the difference between the position information of the installation position of each reference station 3 and the position information of the reference station 3 received from the reference station 3. Further, the server 2 transmits the generated correction information to the mobile station 5.

移動局5は、サーバ2から補正情報を受信する。移動局5は、受信した補正情報に基づき、取得した暫定的な自動車6の位置情報を補正する。 The mobile station 5 receives the correction information from the server 2. The mobile station 5 corrects the acquired provisional position information of the automobile 6 based on the received correction information.

以上のようなRTK測位方式を行うための基準局3に搭載されるGNSSアンテナの設置位置を決定するため、GNSSアンテナの受信状況を評価する必要がある。以下に、GNSSアンテナの受信状況をより短時間で評価することができる本実施形態について説明する。 In order to determine the installation position of the GNSS antenna mounted on the reference station 3 for performing the RTK positioning method as described above, it is necessary to evaluate the reception status of the GNSS antenna. Hereinafter, the present embodiment capable of evaluating the reception status of the GNSS antenna in a shorter time will be described.

〔1.画像解析システムの構成〕
図2を用いて画像解析システムの構成について説明する。図2は、実施形態に係る画像解析システムの構成例を示す図である。図2に示すように、画像解析システムは、撮影カメラ10、端末装置100、および画像解析装置200を含む。図2に示すように、端末装置100と、画像解析装置200とがネットワークNを介して相互に通信可能に接続される。なお、ネットワークNは、有線、無線を問わず、インターネットなどの各種通信網を採用することができる。また、端末装置100は、撮影カメラ10と通信ケーブル50によって相互に通信可能に接続される。通信ケーブル50は、例えば、USBケーブルであるが、端末装置100と撮影カメラ10との通信も、有線、無線を問わない。または、撮影カメラ10は、端末装置100の外部接続端子に直接接続されるタイプのカメラであってもよい。この場合は、通信ケーブル50は不要である。なお、撮影カメラ10の撮影中は、撮影カメラ10は、端末装置100と接続されている必要はなく、撮影カメラ10によって撮影された天空動画を取得するために端末装置100と接続される。
[1. Image analysis system configuration]
The configuration of the image analysis system will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the image analysis system according to the embodiment. As shown in FIG. 2, the image analysis system includes a photographing camera 10, a terminal device 100, and an image analysis device 200. As shown in FIG. 2, the terminal device 100 and the image analysis device 200 are connected to each other so as to be able to communicate with each other via the network N. As the network N, various communication networks such as the Internet can be adopted regardless of whether it is wired or wireless. Further, the terminal device 100 is connected to the photographing camera 10 by a communication cable 50 so as to be able to communicate with each other. The communication cable 50 is, for example, a USB cable, but the communication between the terminal device 100 and the photographing camera 10 may be wired or wireless. Alternatively, the photographing camera 10 may be a type of camera that is directly connected to the external connection terminal of the terminal device 100. In this case, the communication cable 50 is unnecessary. During the shooting of the shooting camera 10, the shooting camera 10 does not need to be connected to the terminal device 100, and is connected to the terminal device 100 in order to acquire the sky moving image shot by the shooting camera 10.

撮影カメラ10は、天空写真を撮影するための360度カメラである。撮影カメラ10は、例えば、180度分を撮影する片側のレンズが空を向くようにカメラ三脚に設置される。地面を向いたもう片側のレンズは何も映らないようにテープなどで隠される。これにより、撮影カメラ10から上空を撮影することができる。なお、カメラ三脚は必ずしも必要なく、GNSSアンテナの受信位置に撮影カメラ10が設置されればよい。撮影カメラ10は、上空を一定時間撮影し、天空動画を取得する。撮影の開始および終了は、例えば、ユーザが撮影カメラ10の撮影ボタンを押下することにより行われる。 The photographing camera 10 is a 360-degree camera for taking a sky photograph. The photographing camera 10 is installed on a camera tripod, for example, so that the lens on one side for photographing 180 degrees faces the sky. The lens on the other side facing the ground is covered with tape so that nothing is reflected. As a result, the sky can be photographed from the photographing camera 10. The camera tripod is not always necessary, and the photographing camera 10 may be installed at the receiving position of the GNSS antenna. The photographing camera 10 photographs the sky for a certain period of time and acquires a sky moving image. The start and end of shooting are performed, for example, by the user pressing the shooting button of the shooting camera 10.

端末装置100は、ユーザによって使用される端末である。なお、ユーザとは、例えば、天空写真を撮影し解析を行う通信事業者の作業者である。端末装置100は、スマートフォンやタブレットPCなどのモバイル端末であってもよいし、ユーザの会社などに設置される据え置き端末であってもよい。端末装置100には、天空写真(画像)を解析するための解析アプリがインストールされており、ユーザは当該解析アプリを操作して、天空画像に対する解析を進めることができる。天空画像に対する解析処理については後述する。 The terminal device 100 is a terminal used by the user. The user is, for example, a worker of a telecommunications carrier who takes a sky photograph and analyzes it. The terminal device 100 may be a mobile terminal such as a smartphone or a tablet PC, or may be a stationary terminal installed in a user's company or the like. An analysis application for analyzing a sky photograph (image) is installed in the terminal device 100, and the user can operate the analysis application to proceed with the analysis of the sky image. The analysis process for the sky image will be described later.

画像解析装置200は、例えば、通信事業者によって管理されるサーバ装置である。画像解析装置200は、天空画像に対して画像処理することにより、空の割合(天空開口率)やPDOP(Positon Dilution Of Precision)値を算出して、解析結果を端末装置100に送信する。天空開口率は、天空画像における空の部分の割合を示す指標値である。遮蔽物が少なく空が十分に見渡せる場合、天空開口率が高くなり、測位精度が高くなる傾向にある。PDOP値は、測位衛星の配置状態を示す指標値である。測位衛星が空にまんべんなく均等に配置されている場合、PDOP値が低くなり、測位精度が高くなる傾向にある。なお、画像解析装置200は、クラウドサーバ装置であってもよいし、複数台のコンピュータで構成される分散型コンピューティングシステムであってもよい。 The image analysis device 200 is, for example, a server device managed by a telecommunications carrier. The image analysis device 200 calculates the ratio of the sky (sky opening ratio) and the PDOP (Positron Division Of Precision) value by performing image processing on the sky image, and transmits the analysis result to the terminal device 100. The sky opening ratio is an index value indicating the ratio of the sky portion in the sky image. When there are few obstacles and the sky can be seen sufficiently, the sky opening rate tends to be high and the positioning accuracy tends to be high. The PDOP value is an index value indicating the arrangement state of the positioning satellite. When the positioning satellites are evenly and evenly arranged in the sky, the PDOP value tends to be low and the positioning accuracy tends to be high. The image analysis device 200 may be a cloud server device or a distributed computing system composed of a plurality of computers.

〔2.端末装置100の構成〕
次に、図3を用いて、実施形態に係る端末装置100の機能構成について説明する。図3は、実施形態に係る端末装置100の機能構成例を示す図である。図3に示すように、端末装置100は、通信部110、記憶部120、制御部130を備える。なお、端末装置100は、端末装置100を利用するユーザなどから各種操作を受け付ける入力装置(例えば、キーボードやマウス、タッチパネル)や、各種情報を表示するための出力装置(例えば、液晶ディスプレイやタッチパネル)を有してもよい。
[2. Configuration of terminal device 100]
Next, the functional configuration of the terminal device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a functional configuration example of the terminal device 100 according to the embodiment. As shown in FIG. 3, the terminal device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The terminal device 100 is an input device (for example, a keyboard, a mouse, a touch panel) that receives various operations from a user or the like who uses the terminal device 100, and an output device (for example, a liquid crystal display or a touch panel) for displaying various information. May have.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)などによって実現される。通信部110は、ネットワークNと有線または無線で接続され、ネットワークNを介して、画像解析装置200や撮影カメラ10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the image analysis device 200 and the photographing camera 10 via the network N.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置によって実現される。図3に示すように、記憶部120は、天空動画記憶部121、天空画像記憶部122、解析結果記憶部123を有する。以下、記憶部120に含まれる各記憶部について順に説明する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 120 includes a sky moving image storage unit 121, a sky image storage unit 122, and an analysis result storage unit 123. Hereinafter, each storage unit included in the storage unit 120 will be described in order.

(天空動画記憶部121)
天空動画記憶部121は、撮影カメラ10によって撮影された天空動画を記憶する。天空動画は、ファイル名などによって撮影地点(緯度、経度)などを特定できるようしておくことができる。
(Sky video storage unit 121)
The sky moving image storage unit 121 stores the sky moving image taken by the photographing camera 10. In the sky movie, the shooting point (latitude, longitude) etc. can be specified by the file name or the like.

(天空画像記憶部122)
天空画像記憶部122は、天空動画から取得された天空画像を記憶する。天空画像も、ファイル名などによって撮影地点や、取得元の天空動画などを特定できるようにしておくことができる。
(Sky image storage unit 122)
The sky image storage unit 122 stores the sky image acquired from the sky moving image. As for the sky image, the shooting point and the sky movie of the acquisition source can be specified by the file name or the like.

(解析結果記憶部123)
解析結果記憶部123は、天空開口率およびPDOP値による、天空画像の解析結果に関する情報を記憶する。図4は、解析結果記憶部に記憶される情報の例を示す図である。図4に示す例では、解析結果記憶部123は、「天空画像ID、天空開口率、開口率結果、PDOP、PDOP結果、アンテナID」などを対応付けて記憶する。
(Analysis result storage unit 123)
The analysis result storage unit 123 stores information regarding the analysis result of the sky image based on the sky opening ratio and the PDOP value. FIG. 4 is a diagram showing an example of information stored in the analysis result storage unit. In the example shown in FIG. 4, the analysis result storage unit 123 stores "sky image ID, sky opening ratio, aperture ratio result, PDOP, PDOP result, antenna ID" and the like in association with each other.

「天空画像ID」は、解析を行った天空画像を一意に示す識別子(例えば、ファイル名)である。「天空開口率」は、例えば、対象の天空画像に含まれる空の部分の割合(%)を示す指標値である。「開口率結果」は、天空開口率に対する判定結果である。例えば、「天空開口率」が所定の閾値以上の場合は、撮影地点から空を十分に見渡すことができ、GNSSアンテナの受信位置として適切である“OK”と判定することできる。 The "sky image ID" is an identifier (for example, a file name) that uniquely indicates the analyzed sky image. The "sky aperture ratio" is, for example, an index value indicating the ratio (%) of the sky portion included in the target sky image. The "opening rate result" is a judgment result for the sky opening rate. For example, when the "sky aperture ratio" is equal to or higher than a predetermined threshold value, the sky can be sufficiently seen from the shooting point, and it can be determined that "OK" is appropriate as the reception position of the GNSS antenna.

ここで、PDOP値とは、測位衛星の配置状態を示す指標値であり、測位精度が高いほど小さい値を示す。例えば、測位衛星の数が多くても、ある方向のみに偏って配置されている場合、測位精度は低くなり、PDOP値は高い値を示す。逆に、測位衛星が空にまんべんなく均等に配置されていると測位精度が高くなり、PDOP値は低い値を示す。画像解析装置200は、各測位衛星の軌道データを有しており、空の部分を抽出した処理済み画像に対し軌道データを重ね合わせることにより、各測位衛星の配置状態を把握することができ、PDOP値を算出することができる。なお、PDOP値は、ある時間における測位衛星の配置状態を示す値であるため、例えば、30分や1時間単位で、24時間分を算出する。 Here, the PDOP value is an index value indicating the arrangement state of the positioning satellite, and the higher the positioning accuracy, the smaller the value. For example, even if the number of positioning satellites is large, if they are unevenly arranged only in a certain direction, the positioning accuracy will be low and the PDOP value will be high. On the contrary, if the positioning satellites are evenly and evenly arranged in the sky, the positioning accuracy becomes high and the PDOP value shows a low value. The image analysis device 200 has orbit data of each positioning satellite, and by superimposing the orbit data on the processed image extracted from the empty part, the arrangement state of each positioning satellite can be grasped. The PDOP value can be calculated. Since the PDOP value is a value indicating the arrangement state of the positioning satellite at a certain time, for example, 24 hours is calculated in units of 30 minutes or 1 hour.

「PDOP」は、例えば、24時間分のPDOP値の内、高精度であることを示すPDOP値の割合(%)である。このように、PDOP値の割合を判定基準とするのは、例えば、PDOP値が、24時間の内、数時間程度、高精度であることを示し、それ以外の時間は測位精度が低い場合は、GNSSアンテナの受信位置として適切であるといえないためである。「PDOP結果」は、PDOPに対する判定結果である。例えば、「PDOP」が所定の閾値以上の場合は、GNSSアンテナは、高精度の測位を十分に維持することができ、受信位置として適切である“OK”と判定することできる。なお、図4の例では、「開口率結果」および「PDOP結果」は、“OK”、“NG”の文字列で示されているが、それぞれを示す数値などであってもよい。 “PDOP” is, for example, the ratio (%) of the PDOP value indicating high accuracy among the PDOP values for 24 hours. In this way, using the ratio of the PDOP value as a criterion indicates, for example, that the PDOP value has high accuracy for several hours out of 24 hours, and the positioning accuracy is low at other times. This is because it cannot be said that the reception position of the GNSS antenna is appropriate. The "PDOP result" is a determination result for PDOP. For example, when "PDOP" is equal to or higher than a predetermined threshold value, the GNSS antenna can sufficiently maintain high-precision positioning and can determine "OK", which is appropriate as a reception position. In the example of FIG. 4, the "opening ratio result" and the "PDOP result" are indicated by character strings of "OK" and "NG", but may be numerical values or the like indicating each.

「アンテナID」は、対象の天空画像を撮影した地点に設置予定のGNSSアンテナを一意に示す識別子である。1つのGNSSアンテナの設置位置を決定するために、複数の天空画像を解析した場合は、「天空画像ID」が異なり、「アンテナID」が同一のデータレコードが生成される。または、「アンテナID」に“12345-1”、“12345-2”、“12345-3”・・・などと通し番号を付与して管理することもできる。 The "antenna ID" is an identifier that uniquely indicates the GNSS antenna to be installed at the point where the target sky image is taken. When a plurality of sky images are analyzed in order to determine the installation position of one GNSS antenna, data records having different "sky image IDs" and the same "antenna ID" are generated. Alternatively, the "antenna ID" can be managed by assigning serial numbers such as "12345-1", "12345-2", "12345-3", and so on.

また、解析結果記憶部123は、24時間分のPDOP値や、PDOPの最大値、最小値、平均値などの解析結果を記憶することもできる。また、記憶部は、解析アプリを記憶する。なお、天空動画記憶部121、天空画像記憶部122、解析結果記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 In addition, the analysis result storage unit 123 can also store analysis results such as a PDOP value for 24 hours and a maximum value, a minimum value, and an average value of the PDOP. In addition, the storage unit stores the analysis application. The sky moving image storage unit 121, the sky image storage unit 122, and the analysis result storage unit 123 are not limited to the above, and various information may be stored depending on the purpose.

(制御部130)
制御部130は、端末装置100全体を司る処理部であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)など(いわゆる、プロセッサ)である。制御部130は、記憶部120に記憶されている各種プログラム(例えば、本願に係る画像解析プログラム)を、作業領域となるRAMに展開して実行する。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路により実現される。
(Control unit 130)
The control unit 130 is a processing unit that controls the entire terminal device 100, and is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like (so-called processor). The control unit 130 expands and executes various programs (for example, the image analysis program according to the present application) stored in the storage unit 120 in a RAM serving as a work area. Further, the control unit 130 is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), for example.

図3に示すように、制御部130は、取得部131、表示部132、入力部133を有し、以下に説明する画像解析の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する画像解析処理を実行する構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 3, the control unit 130 includes an acquisition unit 131, a display unit 132, and an input unit 133, and realizes or executes an image analysis function or operation described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it executes the image analysis process described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be another connection relationship.

(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、撮影カメラ10が撮影した天空動画を取得する。具体的には、取得部131は、解析アプリに対するユーザの操作に応答して、USBケーブルによって接続された撮影カメラ10から天空動画を取得する。また、取得部131は、取得した天空動画から天空画像を取得する。具体的には、例えば、天空動画の再生時間の中央のフレーム(動画の1コマ)を天空画像として取得する。これは、撮影した動画にユーザ自身やその影が映り込むことがあるため、例えば、数十秒間の動画を撮影し、ユーザが撮影カメラ10から離れている時間帯のフレームを天空画像として取得するためである。なお、例えば、解析アプリ上で天空動画を再生し、ユーザに任意のフレームを選択させることにより天空画像を取得することもできる。
(Acquisition unit 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires a sky moving image photographed by the photographing camera 10. Specifically, the acquisition unit 131 acquires the sky moving image from the photographing camera 10 connected by the USB cable in response to the user's operation on the analysis application. In addition, the acquisition unit 131 acquires a sky image from the acquired sky moving image. Specifically, for example, the central frame (one frame of the moving image) of the playback time of the sky moving image is acquired as a sky image. This is because the user or his / her shadow may be reflected in the captured video. Therefore, for example, a video of several tens of seconds is shot, and a frame in a time zone when the user is away from the shooting camera 10 is acquired as a sky image. Because. It should be noted that, for example, the sky image can be acquired by playing the sky moving image on the analysis application and letting the user select an arbitrary frame.

(表示部132)
表示部132は、各種情報を表示する。例えば、表示部132は、画像解析装置200によって空の部分が抽出された処理済み画像や、天空画像の解析結果を表示する。具体的には、表示部132は、画像解析装置200から通信部110によって受信された処理済み画像や解析結果を、出力装置に表示された解析アプリを介して表示する。
(Display unit 132)
The display unit 132 displays various information. For example, the display unit 132 displays the processed image in which the sky portion is extracted by the image analysis device 200 and the analysis result of the sky image. Specifically, the display unit 132 displays the processed image and the analysis result received by the communication unit 110 from the image analysis device 200 via the analysis application displayed on the output device.

(入力部133)
入力部133は、各種情報の入力を受け付ける。例えば、入力部133は、複数の処理済み画像に対するユーザの選択をユーザ入力として受け付ける。具体的には、入力部133は、解析アプリを介して表示された複数の処理済み画像から、入力装置によって選択された処理済み画像をユーザ入力として受け付ける。
(Input unit 133)
The input unit 133 accepts input of various information. For example, the input unit 133 accepts a user's selection for a plurality of processed images as user input. Specifically, the input unit 133 accepts the processed image selected by the input device as the user input from the plurality of processed images displayed via the analysis application.

〔3.画像解析装置200の構成〕
次に、図5を用いて、実施形態に係る画像解析装置200の機能構成について説明する。図5は、実施形態に係る画像解析装置200の機能構成例を示す図である。図5に示すように、画像解析装置200は、通信部210、記憶部220、制御部230を備える。
[3. Configuration of image analysis device 200]
Next, the functional configuration of the image analysis apparatus 200 according to the embodiment will be described with reference to FIG. FIG. 5 is a diagram showing a functional configuration example of the image analysis device 200 according to the embodiment. As shown in FIG. 5, the image analysis device 200 includes a communication unit 210, a storage unit 220, and a control unit 230.

(通信部210)
通信部210は、端末装置100の通信部110同様、ネットワークNを介して、画像解析装置200との間で情報の送受信を行う。
(Communication unit 210)
Like the communication unit 110 of the terminal device 100, the communication unit 210 transmits / receives information to / from the image analysis device 200 via the network N.

(記憶部220)
記憶部220は、端末装置100の記憶部120同様、RAMなどによって実現される。図5に示すように、記憶部220は、軌道データ記憶部221、天空画像記憶部222、解析結果記憶部223を有する。以下、記憶部220に含まれる各記憶部について順に説明する。
(Storage 220)
The storage unit 220 is realized by a RAM or the like, like the storage unit 120 of the terminal device 100. As shown in FIG. 5, the storage unit 220 includes an orbital data storage unit 221, a sky image storage unit 222, and an analysis result storage unit 223. Hereinafter, each storage unit included in the storage unit 220 will be described in order.

(軌道データ記憶部221)
軌道データ記憶部221は、GNSSにおける各測位衛星の軌道に関する情報を記憶する。GNSSは、米国のGPS(Global Positioning System)、欧州連合(EU)のGalileo、ロシアのGLONASSなどの全世界衛星系のシステムと、日本のみちびきなどの地域衛星系のシステムとのすべての衛星測位システムを含む。そのため、軌道データ記憶部221は、各測位衛星の識別子と各々の軌道データとを対応付けて記憶する。なお、例えば、地域衛星系のシステムの測位衛星は、GNSSアンテナを設置する地域によっては、その地域の上空を移動することなく全く捕捉することができない。そのため、軌道データ記憶部221は、GNSSアンテナで捕捉する測位衛星のみのデータを記憶したり、有効フラグなどを設け、有効であることを示すデータのみを軌道データとして使用したりすることができる。
(Orbital data storage unit 221)
The orbit data storage unit 221 stores information on the orbit of each positioning satellite in the GNSS. GNSS is an all-satellite positioning system consisting of global satellite systems such as GPS (Global Positioning System) in the United States, Galileo in the European Union (EU), and GLONASS in Russia, and regional satellite systems such as Michibiki in Japan. including. Therefore, the orbit data storage unit 221 stores the identifier of each positioning satellite and each orbit data in association with each other. For example, depending on the area where the GNSS antenna is installed, the positioning satellite of the regional satellite system cannot be captured at all without moving over the area. Therefore, the orbit data storage unit 221 can store only the data of the positioning satellite captured by the GNSS antenna, or can set an valid flag or the like and use only the data indicating that it is valid as the orbit data.

(天空画像記憶部222)
天空画像記憶部222は、端末装置100から送信された天空画像を記憶する。当該天空画像は、端末装置100の天空画像記憶部122に記憶される天空画像と原則同じものである。図6は、実施形態に係る天空画像の一例を示す図である。図6に示すように、天空画像300は、360度カメラで撮影された天空写真のデジタルデータであり、円状の被写体部301、およびそれ以外の背景部302を含む。図6の例では、被写体部301の右上の方に鉄塔が写っており、円周内縁付近には、周囲の建物や樹木、地面が写っているのがわかる。このような空以外の部分は、GNSS信号の観測および受信を妨げる遮蔽物となり、測位精度を劣化させる。
(Sky image storage unit 222)
The sky image storage unit 222 stores the sky image transmitted from the terminal device 100. The sky image is basically the same as the sky image stored in the sky image storage unit 122 of the terminal device 100. FIG. 6 is a diagram showing an example of a sky image according to the embodiment. As shown in FIG. 6, the sky image 300 is digital data of a sky photograph taken by a 360-degree camera, and includes a circular subject portion 301 and other background portions 302. In the example of FIG. 6, it can be seen that the steel tower is shown in the upper right of the subject portion 301, and the surrounding buildings, trees, and the ground are shown in the vicinity of the inner edge of the circumference. Such a portion other than the sky becomes a shield that hinders the observation and reception of the GNSS signal, and deteriorates the positioning accuracy.

(解析結果記憶部223)
解析結果記憶部223は、端末装置100の解析結果記憶部123同様、天空画像の解析結果に関する情報を記憶する。
(Analysis result storage unit 223)
The analysis result storage unit 223 stores information related to the analysis result of the sky image, like the analysis result storage unit 123 of the terminal device 100.

(制御部230)
制御部230は、端末装置100の制御部130同様、画像解析装置200全体を司る処理部である。図5に示すように、制御部230は、取得部231、画像処理部232、判定部233を有する。なお、制御部230の内部構成も、図5に示した構成や接続関係に限られない。
(Control unit 230)
The control unit 230 is a processing unit that controls the entire image analysis device 200, like the control unit 130 of the terminal device 100. As shown in FIG. 5, the control unit 230 includes an acquisition unit 231, an image processing unit 232, and a determination unit 233. The internal configuration of the control unit 230 is not limited to the configuration and connection relationship shown in FIG.

(取得部231)
取得部231は、各種情報を取得する。例えば、取得部231は、端末装置100から天空画像を取得する。具体的には、取得部231は、端末装置100から通信部210によって受信された天空画像を取得する。
(Acquisition unit 231)
The acquisition unit 231 acquires various types of information. For example, the acquisition unit 231 acquires a sky image from the terminal device 100. Specifically, the acquisition unit 231 acquires the sky image received by the communication unit 210 from the terminal device 100.

(画像処理部232)
画像処理部232は、天空画像に対して画像処理する。例えば、画像処理部232は、端末装置100から取得した天空画像に対してエッジ処理などのフィルタリング処理をして、空の部分と、建物や樹木など、空以外の部分(遮蔽物)との境界を検出することにより、空の部分を抽出する。図7は、実施形態に係る空の部分を抽出するための画像処理の一例を示す図である。図7に示すように、天空画像300に対してフィルタリング処理をすることにより、被写体部301の空の部分311を抽出することができる。さらに、画像処理部232は、空以外の部分312をマスキング処理によりマスクし、処理済み画像310を生成する。マスクされた領域は、天空画像の解析対象から除外される。
(Image processing unit 232)
The image processing unit 232 performs image processing on the sky image. For example, the image processing unit 232 performs filtering processing such as edge processing on the sky image acquired from the terminal device 100, and the boundary between the empty part and a part other than the sky (shield) such as a building or a tree. The empty part is extracted by detecting. FIG. 7 is a diagram showing an example of image processing for extracting an empty portion according to the embodiment. As shown in FIG. 7, the sky portion 311 of the subject portion 301 can be extracted by performing the filtering process on the sky image 300. Further, the image processing unit 232 masks the non-empty portion 312 by masking processing to generate the processed image 310. The masked area is excluded from the analysis target of the sky image.

なお、図7の例では、被写体部301の上方から右上に写っている鉄塔の隙間にも空の部分が存在する。しかしながら、常に移動している測位衛星をこの隙間から捕捉することは実質的に困難であるため、例えば、モルフォロジークロージング処理などのフィルタリング処理を実行して、このような部分も空以外の部分312とみなしてマスクしている。 In the example of FIG. 7, an empty portion also exists in the gap between the steel towers shown from above to the upper right of the subject portion 301. However, since it is practically difficult to capture a positioning satellite that is constantly moving from this gap, for example, a filtering process such as a morphology closing process is executed, and such a part is also a part 312 other than the sky. I'm masking it as if it were.

また、空の部分と、空以外の部分との境界検出の精度を高めるため、二値化処理などのフィルタリング処理を実行することができる。図8は、実施形態に係る二値化処理のためのヒストグラムの一例を示す図である。例えば、天空画像をグレースケール変換し256階調で表現すると、空の部分は高い階調度を示す傾向にある。そのため、図8に示すように、階調度に対して閾値(破線部分、例えば、階調度150)を設定し、閾値以上は空の部分、閾値未満を空以外の部分と決定することができる。なお、閾値は、任意の値を予め設定しておくこともできるし、天空画像に対し所定の関数を用いた画像処理を実行することによって自動的に決定されることもできる。 Further, in order to improve the accuracy of boundary detection between the empty part and the non-empty part, a filtering process such as a binarization process can be executed. FIG. 8 is a diagram showing an example of a histogram for the binarization process according to the embodiment. For example, when a sky image is grayscale-converted and expressed in 256 gradations, the sky portion tends to show a high degree of gradation. Therefore, as shown in FIG. 8, a threshold value (broken line portion, for example, gradation degree 150) can be set for the gradation degree, and an empty portion above the threshold value and a non-empty portion below the threshold value can be determined. The threshold value can be set to an arbitrary value in advance, or can be automatically determined by executing image processing using a predetermined function on the sky image.

また、天候や、遮蔽物の量や種類、撮影カメラ10の撮影パラメータ(例えば、露光やフォーカス)などによって、空の部分の抽出精度が変わってくる。そのため、画像処理部232は、天候などに基づいて、色調補正や、ガンマ補正、アンシャープマスキング処理などのフィルタリング処理を実行することもできる。さらに、画像処理部232は、天空画像の解析対象から除外する領域を決定することができる。 Further, the extraction accuracy of the sky portion changes depending on the weather, the amount and type of the shield, the shooting parameters of the shooting camera 10 (for example, exposure and focus), and the like. Therefore, the image processing unit 232 can also perform filtering processing such as color tone correction, gamma correction, and unsharp masking processing based on the weather and the like. Further, the image processing unit 232 can determine a region to be excluded from the analysis target of the sky image.

図9は、実施形態に係る解析対象から除外する領域の一例を示す図である。図9の例では、フィルタリング処理によって天空画像の解析対象から除外された空以外の部分312に加えて、衛星軌道外領域313、水平方向所定領域314をさらに解析対象から除外した処理済み画像320である。 FIG. 9 is a diagram showing an example of a region excluded from the analysis target according to the embodiment. In the example of FIG. 9, in addition to the non-sky portion 312 excluded from the analysis target of the sky image by the filtering process, the processed image 320 further excludes the satellite out-orbit region 313 and the horizontal predetermined region 314 from the analysis target. be.

衛星軌道外領域313について、例えば、測位衛星は、北半球の場合は北側、南半球の場合は南側を通過しないため、撮影地点から北側や南側を示す所定領域を解析対象から除外することができる。具体的には、天空画像の所定領域を、衛星軌道外領域313と予め定めておき(画像の座標により定義可能)、その部分をマスキング処理によりマスクすることで、解析対象から除外することができる。これにより、より正確な解析を行うことができる。なお、緯度0度の赤道付近では、測位衛星は全エリアを通過する。衛星軌道外領域313を定めるか否か、定める場合はどの部分にどの範囲定めるかは、撮影地点の緯度から決定することができる。 Regarding the satellite orbital region 313, for example, since the positioning satellite does not pass through the north side in the case of the northern hemisphere and the south side in the case of the southern hemisphere, a predetermined region indicating the north side or the south side from the imaging point can be excluded from the analysis target. Specifically, a predetermined region of the sky image can be excluded from the analysis target by predetermining it as a satellite out-orbit region 313 (which can be defined by the coordinates of the image) and masking that portion by masking processing. .. As a result, more accurate analysis can be performed. In the vicinity of the equator at latitude 0 degrees, positioning satellites pass through the entire area. Whether or not to determine the satellite orbital region 313, and if so, which part and which range to determine, can be determined from the latitude of the imaging point.

また、水平方向所定領域314について説明する。図10は、実施形態に係る解析対象から除外する水平方向領域の一例を示す図である。図10に示すように、撮影地点(撮影カメラ10)に対する水平方向から所定角度(例えば、5°)の領域は地面などが写りこみ、空はほぼ撮影できないため、当該領域を解析対象から除外することができる。これも、天空画像の所定領域を、水平方向所定領域314と予め定めておきマスクすることで、解析対象から除外することができる。これにより、より正確な解析を行うことができる。 Further, the horizontal predetermined region 314 will be described. FIG. 10 is a diagram showing an example of a horizontal region excluded from the analysis target according to the embodiment. As shown in FIG. 10, the area at a predetermined angle (for example, 5 °) from the horizontal direction with respect to the photographing point (imaging camera 10) reflects the ground and the like, and the sky cannot be photographed. Therefore, the area is excluded from the analysis target. be able to. This can also be excluded from the analysis target by predetermining and masking a predetermined region of the sky image as a predetermined region 314 in the horizontal direction. As a result, more accurate analysis can be performed.

図11は、実施形態に係る原画像および各処理済み画像の一例を示す図である。画像処理部232は、抽出パターンの異なる複数の処理済み画像310、320、330を生成し、例えば、図11に示すように、天空画像300(原画像)と比較できるような表示で、解析アプリを介してユーザに提示する。これにより、ユーザは、複数の処理済み画像から、解析を行う1つの処理済み画像を選択することができる。なお、図11の例では、処理済み画像は3種類であるが、画像処理部232が生成しユーザに提示する処理済み画像はそれより多くても少なくてもよい。 FIG. 11 is a diagram showing an example of the original image and each processed image according to the embodiment. The image processing unit 232 generates a plurality of processed images 310, 320, 330 having different extraction patterns, and as shown in FIG. 11, for example, displays an analysis application so that it can be compared with the sky image 300 (original image). Present to the user via. As a result, the user can select one processed image to be analyzed from the plurality of processed images. In the example of FIG. 11, there are three types of processed images, but the number of processed images generated by the image processing unit 232 and presented to the user may be larger or smaller.

また、画像処理部232は、処理済み画像に対する、天空開口率およびPDOP値を算出する。天空開口率は、図9を例に説明すると、処理済み画像320から背景部302を除いた画素の内、空の部分311の画素の割合である。 In addition, the image processing unit 232 calculates the sky aperture ratio and the PDOP value for the processed image. Taking FIG. 9 as an example, the sky aperture ratio is the ratio of the pixels of the empty portion 311 among the pixels obtained by removing the background portion 302 from the processed image 320.

また、PDOP値について説明する。図12は、実施形態に係る天空画像と衛星軌道との合成画像の一例を示す図である。図12の左側は、軌道データに基づいて、天空画像に対し、各測位衛星の軌道を合成した合成画像340である。また、図12の右側は、空以外の部分312に重なる衛星は捕捉できないため、その部分の衛星軌道を除外した合成画像350である。このような合成画像350に基づいて、画像処理部232は、空の部分における各測位衛星の配置状態を指標化し、PDOP値を算出することができる。 Moreover, the PDOP value will be described. FIG. 12 is a diagram showing an example of a composite image of the sky image and the satellite orbit according to the embodiment. The left side of FIG. 12 is a composite image 340 in which the orbits of each positioning satellite are combined with the sky image based on the orbit data. Further, the right side of FIG. 12 is a composite image 350 excluding the satellite orbit of the portion because the satellite overlapping the portion 312 other than the sky cannot be captured. Based on such a composite image 350, the image processing unit 232 can index the arrangement state of each positioning satellite in the empty portion and calculate the PDOP value.

(判定部233)
判定部233は、算出した天空開口率およびPDOP値を、それぞれの閾値に基づいて判定する。また、判定部233は、天空開口率およびPDOP値の判定結果に基づいて、図4に示すような解析結果を生成する。例えば、判定部233は、天空開口率が所定の閾値以上あった場合、天空開口率の結果を“OK”と判定し、図4に示す「開口率結果」に“OK”を設定する。また、判定部233は、例えば、所定の閾値以下のPDOP値が24時間分の内に所定の割合以上あった場合、PDOPの結果を“OK”と判定し、図4に示す「PDOP結果」に“OK”を設定する。
(Judgment unit 233)
The determination unit 233 determines the calculated sky opening ratio and PDOP value based on the respective threshold values. Further, the determination unit 233 generates an analysis result as shown in FIG. 4 based on the determination result of the sky opening ratio and the PDOP value. For example, when the sky opening ratio is equal to or higher than a predetermined threshold value, the determination unit 233 determines that the result of the sky opening ratio is “OK” and sets “OK” in the “opening ratio result” shown in FIG. Further, the determination unit 233 determines, for example, that the PDOP result is "OK" when the PDOP value below the predetermined threshold value is equal to or more than the predetermined ratio within 24 hours, and the "PDOP result" shown in FIG. Set to "OK".

図13は、実施形態に係る解析アプリの解析結果画面の一例を示す図である。判定部233によって生成された解析結果は、図13に示すように、解析アプリ400を介して表示させることができる。なお、図13における解析アプリ400の表示内容は一例であり、これに限定されない。天空画像の原画像や処理済み画像、解析結果の表示を増減させたり、それらの表示の大きさや配置を変更させたりすることができる。また、表示領域の形状や大きさ、フォントの色、大きさ、透過率なども一例である。 FIG. 13 is a diagram showing an example of an analysis result screen of the analysis application according to the embodiment. As shown in FIG. 13, the analysis result generated by the determination unit 233 can be displayed via the analysis application 400. The display content of the analysis application 400 in FIG. 13 is an example, and is not limited to this. It is possible to increase or decrease the display of the original image of the sky image, the processed image, and the analysis result, and change the size and arrangement of those displays. Further, the shape and size of the display area, the color and size of the font, the transmittance, and the like are also examples.

〔4.処理手順〕
次に、図14を用いて、実施形態に係る天空画像に対する画像解析処理の手順について説明する。図14は、実施形態に係る天空画像に対する画像解析処理の流れを示すフローチャートである。図14に示す画像解析処理は、ユーザが、端末装置100と撮影カメラ10とを接続し、端末装置100にインストールされた解析アプリを起動したところから開始する。
[4. Processing procedure]
Next, the procedure of the image analysis processing for the sky image according to the embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing the flow of image analysis processing for the sky image according to the embodiment. The image analysis process shown in FIG. 14 starts from the point where the user connects the terminal device 100 and the photographing camera 10 and starts the analysis application installed in the terminal device 100.

図14に示すように、端末装置100の取得部131は、例えば、解析アプリを介したユーザ操作に応答して、撮影カメラ10によって撮影された天空動画を、撮影カメラ10から取得し、天空動画記憶部121に記憶する(ステップS101)。ここでいうユーザ操作とは、例えば、解析アプリ上の天空動画取得ボタンの押下である。または、端末装置100に撮影カメラ10が接続されたことに応答して、天空動画を取得してもよい。なお、天空動画の取得は、撮影カメラ10による撮影直後に実行される必要はなく、撮影地点とは別の場所(例えば、ユーザの会社)で実行されてもよい。 As shown in FIG. 14, the acquisition unit 131 of the terminal device 100 acquires, for example, a sky moving image shot by the shooting camera 10 from the shooting camera 10 in response to a user operation via an analysis application, and obtains the sky moving image from the shooting camera 10. It is stored in the storage unit 121 (step S101). The user operation referred to here is, for example, pressing the sky moving image acquisition button on the analysis application. Alternatively, the sky moving image may be acquired in response to the connection of the photographing camera 10 to the terminal device 100. It should be noted that the acquisition of the sky moving image does not have to be executed immediately after shooting by the shooting camera 10, and may be executed at a place other than the shooting point (for example, the user's company).

次に、取得部131は、例えば、解析アプリを介したユーザ操作に応答して、取得した天空動画から天空画像を取得し、天空画像記憶部122に記憶する(ステップS102)ここでいうユーザ操作とは、例えば、解析アプリ上の天空画像取得ボタンの押下である。または、天空動画の取得が完了したことに応答して、天空画像を取得してもよい。取得する天空画像は、例えば、天空動画の再生時間の中央のフレームであるが、それ以外のフレームであってもよいし、表示部132を介して天空動画を表示し、任意のフレームをユーザに入力部133を介して選択させてもよい。 Next, the acquisition unit 131 acquires a sky image from the acquired sky moving image in response to a user operation via the analysis application and stores it in the sky image storage unit 122 (step S102). Is, for example, pressing the sky image acquisition button on the analysis application. Alternatively, the sky image may be acquired in response to the completion of the acquisition of the sky moving image. The sky image to be acquired is, for example, the center frame of the playback time of the sky movie, but may be a frame other than that, or the sky movie is displayed via the display unit 132, and an arbitrary frame is given to the user. It may be selected via the input unit 133.

次に、取得部131は、例えば、解析アプリを介したユーザ操作に応答して、取得した天空画像を画像解析装置200に通信部110を介して送信する(ステップS103)。ここでいうユーザ操作とは、例えば、解析アプリ上の送信ボタンの押下である。 Next, the acquisition unit 131 transmits the acquired sky image to the image analysis device 200 via the communication unit 110 in response to a user operation via the analysis application, for example (step S103). The user operation referred to here is, for example, pressing the send button on the analysis application.

次に、画像解析装置200の取得部231は、端末装置100から天空画像を受信したか否かを判定する(ステップS104)。天空画像を受信していないと判定した場合(ステップS104:No)、取得部231は、天空画像の受信を待つ。天空画像を受信したと判定した場合(ステップS104:Yes)、取得部231は、通信部210を介して天空画像を受信し、天空画像記憶部222に記憶する。 Next, the acquisition unit 231 of the image analysis device 200 determines whether or not the sky image has been received from the terminal device 100 (step S104). When it is determined that the sky image has not been received (step S104: No), the acquisition unit 231 waits for the reception of the sky image. When it is determined that the sky image has been received (step S104: Yes), the acquisition unit 231 receives the sky image via the communication unit 210 and stores it in the sky image storage unit 222.

次に、画像処理部232は、空の部分を抽出するため、受信した天空画像に対してフィルタリング処理を実行する(ステップS105)。続いて、画像処理部232は、抽出した空以外の部分をマスクするため、空以外の部分に対してマスキング処理を実行する(ステップS106)。これにより、処理済み画像が生成される。また、画像処理部232は、フィルタやフィルタパラメータを変えてフィルタリング処理(ステップS105)およびマスキング処理(ステップS106)を実行し、複数の処理済み画像を生成することもできる。これにより、ユーザに、空の部分が最も正しく抽出できている処理済み画像を選択させることができる。なお、各処理済み画像も天空画像記憶部122に記憶される。 Next, the image processing unit 232 executes a filtering process on the received sky image in order to extract the empty portion (step S105). Subsequently, the image processing unit 232 executes masking processing on the non-empty portion in order to mask the extracted non-empty portion (step S106). As a result, the processed image is generated. Further, the image processing unit 232 can execute the filtering process (step S105) and the masking process (step S106) by changing the filter and the filter parameters to generate a plurality of processed images. This allows the user to select the processed image with the most correctly extracted empty areas. Each processed image is also stored in the sky image storage unit 122.

次に、画像処理部232は、生成した1つまたは複数の処理済み画像を端末装置100に通信部210を介して送信する(ステップS107)。 Next, the image processing unit 232 transmits the generated one or more processed images to the terminal device 100 via the communication unit 210 (step S107).

次に、端末装置100の取得部131は、画像解析装置200から処理済み画像を受信したか否かを判定する(ステップS108)。処理済み画像を受信していないと判定した場合(ステップS108:No)、取得部131は、処理済み画像の受信を待つ。処理済み画像を受信したと判定した場合(ステップS108:Yes)、取得部131は、通信部110を介して処理済み画像を受信する。 Next, the acquisition unit 131 of the terminal device 100 determines whether or not the processed image has been received from the image analysis device 200 (step S108). When it is determined that the processed image has not been received (step S108: No), the acquisition unit 131 waits for the reception of the processed image. When it is determined that the processed image has been received (step S108: Yes), the acquisition unit 131 receives the processed image via the communication unit 110.

次に、表示部132は、受信した1つまたは複数の処理済み画像を、解析アプリを介して表示する(ステップS109)。続いて、入力部133は、ユーザ入力を受け付けて、画像解析装置200に通信部110を介して送信する(ステップS110)。ここでいうユーザ入力は、例えば、画像解析処理を実行する処理済み画像の識別子である。複数の処理済み画像がある場合、ユーザは1つの処理済み画像を選択する。 Next, the display unit 132 displays the received one or more processed images via the analysis application (step S109). Subsequently, the input unit 133 receives the user input and transmits the user input to the image analysis device 200 via the communication unit 110 (step S110). The user input here is, for example, an identifier of the processed image that executes the image analysis process. If there are multiple processed images, the user selects one processed image.

次に、画像解析装置200の取得部231は、端末装置100からユーザ入力を受信したか否かを判定する(ステップS111)。ユーザ入力を受信していないと判定した場合(ステップS111:No)、取得部231は、ユーザ入力の受信を待つ。天空画像を受信したと判定した場合(ステップS111:Yes)、取得部231は、通信部210を介してユーザ入力を受信する。 Next, the acquisition unit 231 of the image analysis device 200 determines whether or not the user input has been received from the terminal device 100 (step S111). If it is determined that the user input has not been received (step S111: No), the acquisition unit 231 waits for the reception of the user input. When it is determined that the sky image has been received (step S111: Yes), the acquisition unit 231 receives the user input via the communication unit 210.

次に、画像処理部232は、処理済み画像に対する天空開口率を算出する(ステップS112)。また、画像処理部232は、処理済み画像に対するPDOP値を算出する(ステップS113)。なお、ステップS112およびステップS113の実行順序は逆であってもよいし、並列処理されてもよい。 Next, the image processing unit 232 calculates the sky opening ratio with respect to the processed image (step S112). Further, the image processing unit 232 calculates the PDOP value for the processed image (step S113). The execution order of steps S112 and S113 may be reversed, or parallel processing may be performed.

次に、判定部233は、算出した天空開口率およびPDOP値を、それぞれの閾値に基づいて判定する(ステップS114)。続いて、判定部233は、天空開口率およびPDOP値の判定結果に基づいて、解析結果を生成し、解析結果記憶部223に記憶する(ステップS115)。さらに、判定部233は、生成した解析結果を端末装置100に通信部210を介して送信する(ステップS116)。 Next, the determination unit 233 determines the calculated sky opening ratio and PDOP value based on the respective threshold values (step S114). Subsequently, the determination unit 233 generates an analysis result based on the determination result of the sky opening ratio and the PDOP value, and stores it in the analysis result storage unit 223 (step S115). Further, the determination unit 233 transmits the generated analysis result to the terminal device 100 via the communication unit 210 (step S116).

次に、端末装置100の取得部131は、画像解析装置200から解析結果を受信したか否かを判定する(ステップS117)。解析結果を受信していないと判定した場合(ステップS117:No)、取得部131は、解析結果の受信を待つ。解析結果を受信したと判定した場合(ステップS117:Yes)、取得部131は、通信部110を介して解析結果を受信し、解析結果記憶部123に記憶する。 Next, the acquisition unit 131 of the terminal device 100 determines whether or not the analysis result has been received from the image analysis device 200 (step S117). When it is determined that the analysis result has not been received (step S117: No), the acquisition unit 131 waits for the analysis result to be received. When it is determined that the analysis result has been received (step S117: Yes), the acquisition unit 131 receives the analysis result via the communication unit 110 and stores it in the analysis result storage unit 123.

次に、表示部132は、受信した解析結果を、解析アプリを介して表示する(ステップS118)。ステップS118の後、図14に示す画像解析処理は終了する。 Next, the display unit 132 displays the received analysis result via the analysis application (step S118). After step S118, the image analysis process shown in FIG. 14 ends.

〔5.効果〕
上述してきたように、実施形態に係る画像解析システムは、撮影カメラ10と、端末装置100と、画像解析装置200とを有する。撮影カメラ10は、第1の地点において天空動画を取得する。端末装置100は、撮影カメラ10から天空動画を取得し、天空動画の開始から所定時間経過後のフレームを天空画像として取得する。画像解析装置200は、端末装置100から天空画像を取得し、天空画像に対してフィルタリング処理を実行することで天空画像に含まれる空の部分を抽出し、GNSSから信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する。
[5. effect〕
As described above, the image analysis system according to the embodiment includes a photographing camera 10, a terminal device 100, and an image analysis device 200. The shooting camera 10 acquires a sky moving image at the first point. The terminal device 100 acquires a sky moving image from the shooting camera 10, and acquires a frame as a sky image after a lapse of a predetermined time from the start of the sky moving image. The image analysis device 200 acquires a sky image from the terminal device 100, extracts a part of the sky included in the sky image by executing a filtering process on the sky image, and receives a signal from the GNSS antenna. Calculate the index value to evaluate the situation.

このように、実施形態に係る画像解析システムは、フィルタリング処理を実行して天空画像に含まれる空の部分を抽出し、空の部分に対して、GNSSアンテナの受信状況を評価するための指標値を算出することにより、GNSSアンテナの受信状況をより短時間で評価することができる。 As described above, the image analysis system according to the embodiment executes a filtering process to extract an empty portion included in the sky image, and an index value for evaluating the reception status of the GNSS antenna with respect to the empty portion. By calculating, the reception status of the GNSS antenna can be evaluated in a shorter time.

また、実施形態に係る画像解析装置200はさらに、天空画像に対する空の部分の割合を算出する。 Further, the image analysis device 200 according to the embodiment further calculates the ratio of the sky portion to the sky image.

このように、実施形態に係る画像解析装置200は、天空画像に対する空の部分の割合(天空開口率)を算出することにより、GNSSアンテナの受信状況をより短時間で評価することができる。 As described above, the image analysis device 200 according to the embodiment can evaluate the reception status of the GNSS antenna in a shorter time by calculating the ratio of the sky portion to the sky image (sky aperture ratio).

また、実施形態に係る画像解析装置200により実行されるフィルタリング処理は少なくともエッジ処理であり、エッジ処理によって空の部分と遮蔽物との境界を検出し、空の部分を抽出する。 Further, the filtering process executed by the image analysis apparatus 200 according to the embodiment is at least an edge process, and the edge process detects the boundary between the empty portion and the shield and extracts the empty portion.

このように、実施形態に係る画像解析装置200は、天空画像に対しエッジ処理を実行することにより、天空画像から空の部分を適切に抽出することができる。 As described above, the image analysis apparatus 200 according to the embodiment can appropriately extract the sky portion from the sky image by executing the edge processing on the sky image.

また、実施形態に係る画像解析装置200において、GNSS信号を受信するGNSSアンテナの受信状況を評価するための指標値は、PDOP値である。 Further, in the image analysis apparatus 200 according to the embodiment, the index value for evaluating the reception status of the GNSS antenna that receives the GNSS signal is the PDOP value.

このように、実施形態に係る画像解析装置200は、PDOP値を算出することにより、GNSSアンテナの受信状況をより短時間で評価することができる。 As described above, the image analysis apparatus 200 according to the embodiment can evaluate the reception status of the GNSS antenna in a shorter time by calculating the PDOP value.

また、実施形態に係る画像解析装置200による前記PDOP値の算出は、第1の地点の上空を通過するGNSSの一定時間における軌道データと、天空画像とに基づいて、所定時間ごとの複数のPDOP値を算出し、複数のPDOP値の各々が予め定められた第2の閾値未満であるPDOP値の割合を算出することを含む。 Further, the calculation of the PDOP value by the image analysis device 200 according to the embodiment is based on the orbital data of the GNSS passing over the first point at a fixed time and the sky image, and a plurality of PDOPs at predetermined time intervals. The value is calculated, and the ratio of the PDOP value in which each of the plurality of PDOP values is less than a predetermined second threshold value is calculated.

このように、実施形態に係る画像解析装置200は、軌道データと、天空画像とに基づいて、所定時間ごとの複数のPDOP値を算出し、複数のPDOP値の各々が予め定められた第2の閾値未満であるPDOP値の割合を算出することにより、GNSSアンテナの受信状況をより短時間で評価することができる。 As described above, the image analysis device 200 according to the embodiment calculates a plurality of PDOP values at predetermined time intervals based on the orbital data and the sky image, and each of the plurality of PDOP values is a predetermined second. By calculating the ratio of the PDOP value that is less than the threshold value of, the reception status of the GNSS antenna can be evaluated in a shorter time.

また、実施形態に係る画像解析装置200は、フィルタリング処理を実行して、天空画像に含まれる遮蔽物の隙間を埋めた上で空の部分を抽出する。 Further, the image analysis device 200 according to the embodiment executes a filtering process to fill the gaps of the shield included in the sky image and then extract the empty portion.

このように、実施形態に係る画像解析装置200は、常に移動している測位衛星を捕捉することが実質的に困難である遮蔽物の隙間を埋めた上で空の部分を抽出することができる。 As described above, the image analysis apparatus 200 according to the embodiment can extract the empty portion after filling the gap of the shield, which is substantially difficult to capture the constantly moving positioning satellite. ..

また、実施形態に係る画像解析装置200はさらに、天空画像に対する空の部分の割合が予め定められた第3の閾値以上であるか否かを判定し、判定結果に基づいて解析結果を生成する。 Further, the image analysis device 200 according to the embodiment further determines whether or not the ratio of the sky portion to the sky image is equal to or higher than a predetermined third threshold value, and generates an analysis result based on the determination result. ..

このように、実施形態に係る画像解析装置200は、天空画像に対する空の部分の割合が予め定められた第3の閾値以上であるか否かを判定し、判定結果に基づいて解析結果を生成することにより、空の割合(天空開口率)に対する解析結果をユーザに表示することができる。 In this way, the image analysis device 200 according to the embodiment determines whether or not the ratio of the sky portion to the sky image is equal to or higher than a predetermined third threshold value, and generates an analysis result based on the determination result. By doing so, the analysis result for the ratio of the sky (sky opening ratio) can be displayed to the user.

また、実施形態に係る画像解析装置200はさらに、PDOP値の割合が予め定められた第4の閾値以上であるか否かを判定し、判定結果に基づいて解析結果を生成する。 Further, the image analysis device 200 according to the embodiment further determines whether or not the ratio of the PDOP value is equal to or higher than a predetermined fourth threshold value, and generates an analysis result based on the determination result.

このように、実施形態に係る画像解析装置200は、PDOP値の割合が予め定められた第4の閾値以上であるか否かを判定し、判定結果に基づいて解析結果を生成することにより、PDOP値に対する解析結果をユーザに表示することができる。 In this way, the image analysis device 200 according to the embodiment determines whether or not the ratio of the PDOP values is equal to or higher than a predetermined fourth threshold value, and generates an analysis result based on the determination result. The analysis result for the PDOP value can be displayed to the user.

また、実施形態に係る画像解析装置200による、PDOP値の割合の算出は、天空画像から、第1の地点の緯度から決定される衛星軌道外領域を除外した上で実行される。 Further, the calculation of the ratio of the PDOP value by the image analysis device 200 according to the embodiment is executed after excluding the region outside the satellite orbit determined from the latitude of the first point from the sky image.

このように、実施形態に係る画像解析装置200は、天空画像から、衛星軌道外領域を除外した上でPDOP値の割合の算出を実行することにより、より正確な解析を行うことができる。 As described above, the image analysis device 200 according to the embodiment can perform more accurate analysis by executing the calculation of the ratio of the PDOP value after excluding the region outside the satellite orbit from the sky image.

また、実施形態に係る画像解析装置200による、PDOP値の割合の算出は、天空画像から、第1の地点に対する水平方向から所定角度の領域を除外した上で実行される。 Further, the image analysis device 200 according to the embodiment calculates the ratio of the PDOP value after excluding the region at a predetermined angle from the horizontal direction with respect to the first point from the sky image.

このように、実施形態に係る画像解析装置200は、天空画像から、第1の地点に対する水平方向から所定角度の領域を除外した上でPDOP値の割合の算出を実行することにより、より正確な解析を行うことができる。 As described above, the image analysis device 200 according to the embodiment is more accurate by calculating the ratio of the PDOP value after excluding the region of a predetermined angle from the horizontal direction with respect to the first point from the sky image. Can be analyzed.

また、実施形態に係る画像解析装置200による、PDOP値の割合の算出は、複数の異なるフィルタリング処理をそれぞれに実行した複数の天空画像からユーザによって選択された1つの画像に対して実行される。 Further, the calculation of the ratio of the PDOP value by the image analysis device 200 according to the embodiment is executed for one image selected by the user from a plurality of sky images in which a plurality of different filtering processes are executed.

このように、実施形態に係る画像解析装置200は、複数の異なるフィルタリング処理をそれぞれに実行した複数の天空画像からユーザによって選択された1つの画像に対してPDOP値の割合の算出を実行することにより、より正確な解析を行うことができる。 As described above, the image analysis device 200 according to the embodiment calculates the ratio of the PDOP value to one image selected by the user from the plurality of sky images that have been subjected to a plurality of different filtering processes. Therefore, more accurate analysis can be performed.

また、実施形態に係る画像解析装置200はさらに、天空動画が撮影された時の天候に基づいて、天空画像に対し実行するフィルタリング処理を決定し、画像解析装置200による、空の部分の抽出は、決定したフィルタリング処理を実行することにより行われる。 Further, the image analysis device 200 according to the embodiment further determines the filtering process to be executed on the sky image based on the weather at the time when the sky moving image is taken, and the image analysis device 200 extracts the sky part. , It is performed by executing the determined filtering process.

このように、実施形態に係る画像解析装置200は、天空動画が撮影された時の天候に基づいて、天空画像に対し実行するフィルタリング処理を決定し、決定したフィルタリング処理を実行して空の部分の抽出を行うことにより、GNSSアンテナの受信状況をより短時間で評価することができる。 As described above, the image analysis device 200 according to the embodiment determines the filtering process to be executed on the sky image based on the weather at the time when the sky moving image is taken, and executes the determined filtering process to execute the determined filtering process to determine the empty portion. By performing the extraction of, the reception status of the GNSS antenna can be evaluated in a shorter time.

〔6.ハードウェア構成〕
上述してきた端末装置100および画像解析装置200は、例えば、図15に示すような構成のコンピュータ1000によって実現される。図15は、各装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The terminal device 100 and the image analysis device 200 described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 15 is a hardware configuration diagram showing an example of a computer that realizes the functions of each device. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラムなどを格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program that depends on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、プログラムによって使用されるデータなどを格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が収集したデータを、ネットワークNを介して他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via the network N and sends it to the CPU 1100, and transmits the data collected by the CPU 1100 to the other device via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタなどの出力装置、および、キーボードやマウスなどの入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、収集したデータを、入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the collected data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、プログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)などの光学記録媒体、MO(Magneto−Optical disk)などの光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリなどである。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is an optical recording medium such as a DVD (Digital Versaille Disc) or PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magnet-Optical disc), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が端末装置100や画像解析装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130や230の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the terminal device 100 or the image analysis device 200, the CPU 1100 of the computer 1000 realizes the functions of the control units 130 and 230 by executing the program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 The embodiments of the present application have been described in detail with reference to the drawings, but these are examples, and various modifications and improvements are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure line of the invention. It is possible to carry out the present invention in other forms described above.

〔7.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "part (module, module, unit)" can be read as "means", "circuit" and the like. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
2 サーバ
3 基準局
4 GNSS測位衛星
5 移動局
6 自動車
10 撮影カメラ
50 通信ケーブル
100 端末装置
110 通信部
120 記憶部
121 天空動画記憶部
122 天空画像記憶部
123 解析結果記憶部
130 制御部
131 取得部
132 表示部
133 入力部
200 画像解析装置
210 通信部
220 記憶部
221 軌道データ記憶部
222 天空画像記憶部
223 解析結果記憶部
230 制御部
231 取得部
232 画像処理部
233 判定部
N ネットワーク
1 Information processing system 2 Server 3 Reference station 4 GNSS positioning satellite 5 Mobile station 6 Automobile 10 Shooting camera 50 Communication cable 100 Terminal device 110 Communication unit 120 Storage unit 121 Sky video storage unit 122 Sky image storage unit 123 Analysis result storage unit 130 Control unit 131 Acquisition unit 132 Display unit 133 Input unit 200 Image analysis device 210 Communication unit 220 Storage unit 221 Orbital data storage unit 222 Sky image storage unit 223 Analysis result storage unit 230 Control unit 231 Acquisition unit 232 Image processing unit 233 Judgment unit N network

Claims (20)

第1の地点において天空動画を取得する撮影カメラと、
前記撮影カメラから前記天空動画を取得し、
前記天空動画の開始から所定時間経過後のユーザが前記撮影カメラから離れている時間帯のフレームを天空画像として取得する端末装置と、
前記端末装置から前記天空画像を取得し、前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する画像解析装置と
を備えたことを特徴とする画像解析システム。
A shooting camera that acquires a sky movie at the first point,
The sky moving image is acquired from the shooting camera, and the sky moving image is acquired.
A terminal device that acquires a frame in a time zone when the user is away from the shooting camera as a sky image after a lapse of a predetermined time from the start of the sky moving image.
The sky image is acquired from the terminal device, and the sky portion included in the sky image is extracted by executing a filtering process on the sky image.
An image analysis system characterized by being equipped with an image analysis device that calculates an index value for evaluating the reception status of a GNSS antenna that receives signals from a global navigation satellite system (GNSS).
前記画像解析装置はさらに、前記天空画像に対する前記空の部分の割合を算出することを特徴とする請求項1に記載の画像解析システム。 The image analysis system according to claim 1, wherein the image analysis device further calculates the ratio of the sky portion to the sky image. 前記画像解析装置により実行される前記フィルタリング処理は少なくともエッジ処理であり、前記エッジ処理によって前記空の部分と遮蔽物との境界を検出し、前記空の部分を抽出することを特徴とする請求項1に記載の画像解析システム。 The filtering process executed by the image analysis apparatus is at least an edge process, and the edge process detects a boundary between the empty portion and a shield and extracts the empty portion. The image analysis system according to 1. 前記指標値は、前記空の部分に対するPDOP値であることを特徴とする請求項1に記載の画像解析システム。 The image analysis system according to claim 1, wherein the index value is a PDOP value for the empty portion. 前記画像解析装置による前記PDOP値の算出は、
前記第1の地点の上空を通過するGNSSの一定時間における軌道データと、前記天空画像とに基づいて、所定時間ごとの複数のPDOP値を算出し、
前記複数のPDOP値の各々が予め定められた第2の閾値未満であるPDOP値の割合を算出することを含むことを特徴とする請求項4に記載の画像解析システム。
The calculation of the PDOP value by the image analyzer is
A plurality of PDOP values for each predetermined time are calculated based on the orbital data of the GNSS passing over the first point at a fixed time and the sky image.
The image analysis system according to claim 4, wherein each of the plurality of PDOP values includes calculating a ratio of PDOP values that is less than a predetermined second threshold value.
前記画像解析装置は、前記フィルタリング処理を実行して、前記天空画像に含まれる遮蔽物の隙間を埋めた上で前記空の部分を抽出することを特徴とする請求項1に記載の画像解析システム。 The image analysis system according to claim 1, wherein the image analysis apparatus executes the filtering process to fill a gap of a shield included in the sky image and then extracts the empty portion. .. 前記画像解析装置はさらに、前記天空画像に対する前記空の部分の割合が予め定められた第3の閾値以上であるか否かを判定し、判定結果に基づいて解析結果を生成することを特徴とする請求項2に記載の画像解析システム。 The image analysis device is further characterized in that it determines whether or not the ratio of the empty portion to the sky image is equal to or higher than a predetermined third threshold value, and generates an analysis result based on the determination result. The image analysis system according to claim 2. 前記画像解析装置はさらに、前記PDOP値の割合が予め定められた第4の閾値以上であるか否かを判定し、判定結果に基づいて解析結果を生成することを特徴とする請求項4に記載の画像解析システム。 The fourth aspect of the present invention is characterized in that the image analysis apparatus further determines whether or not the ratio of the PDOP values is equal to or higher than a predetermined fourth threshold value, and generates an analysis result based on the determination result. The image analysis system described. 前記画像解析装置による、前記PDOP値の割合の算出は、前記天空画像から、前記第1の地点の緯度から決定される衛星軌道外領域を除外した上で実行されることを特徴とする請求項4に記載の画像解析システム。 The claim is characterized in that the calculation of the ratio of the PDOP value by the image analysis device is executed after excluding the region outside the satellite orbit determined from the latitude of the first point from the sky image. The image analysis system according to 4. 前記画像解析装置による、前記PDOP値の割合の算出は、前記天空画像から、前記第1の地点に対する水平方向から所定角度の領域を除外した上で実行されることを特徴とする請求項4に記載の画像解析システム。 According to claim 4, the calculation of the ratio of the PDOP value by the image analysis device is performed after excluding a region at a predetermined angle from the horizontal direction with respect to the first point from the sky image. The described image analysis system. 前記画像解析装置による、前記PDOP値の割合の算出は、複数の異なる前記フィルタリング処理をそれぞれに実行した複数の前記天空画像からユーザによって選択された1つの画像に対して実行されることを特徴とする請求項4に記載の画像解析システム。 The image analysis apparatus is characterized in that the calculation of the ratio of the PDOP value is performed on one image selected by the user from the plurality of sky images that have each performed the plurality of different filtering processes. The image analysis system according to claim 4. 前記画像解析装置はさらに、
前記天空動画が撮影された時の天候に基づいて、前記天空画像に対し実行する前記フィルタリング処理を決定し、
前記画像解析装置による、前記空の部分の抽出は、前記決定したフィルタリング処理を実行することにより行われることを特徴とする請求項1に記載の画像解析システム。
The image analyzer further
Based on the weather at the time the sky moving image was taken, the filtering process to be executed on the sky image is determined.
The image analysis system according to claim 1, wherein the extraction of the empty portion by the image analysis device is performed by executing the determined filtering process.
画像解析装置が、
第1の地点において撮影カメラによって撮影された天空動画を取得し、
前記天空動画の開始から所定時間経過後のユーザが前記撮影カメラから離れている時間帯のフレームを天空画像として取得し、
前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する
処理を実行することを特徴とする画像解析方法。
The image analyzer
Acquire the sky movie taken by the shooting camera at the first point,
A frame in a time zone when the user is away from the shooting camera after a lapse of a predetermined time from the start of the sky moving image is acquired as a sky image.
By executing the filtering process on the sky image, the sky part included in the sky image is extracted.
An image analysis method characterized by executing a process of calculating an index value for evaluating the reception status of a GNSS antenna that receives a signal from a global navigation satellite system (GNSS).
画像解析装置に、
第1の地点において撮影カメラによって撮影された天空動画を取得し、
前記天空動画の開始から所定時間経過後のユーザが前記撮影カメラから離れている時間帯のフレームを天空画像として取得し、
前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する
処理を実行させることを特徴とする画像解析プログラム。
For image analysis equipment
Acquire the sky movie taken by the shooting camera at the first point,
A frame in a time zone when the user is away from the shooting camera after a lapse of a predetermined time from the start of the sky moving image is acquired as a sky image.
By executing the filtering process on the sky image, the sky part included in the sky image is extracted.
An image analysis program characterized by executing a process of calculating an index value for evaluating the reception status of a GNSS antenna that receives a signal from a global navigation satellite system (GNSS).
第1の地点において天空動画を一定時間撮影する撮影カメラと、A shooting camera that shoots a sky movie for a certain period of time at the first point,
前記撮影カメラから、撮影された前記一定時間の前記天空動画を取得し、The sky moving image taken for a certain period of time is acquired from the shooting camera.
前記一定時間の前記天空動画の開始から前記一定時間より短い所定時間経過後のフレームを天空画像として取得する端末装置と、A terminal device that acquires a frame as a sky image after a predetermined time shorter than the fixed time has elapsed from the start of the sky moving image for a fixed time.
前記端末装置から前記天空画像を取得し、前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、The sky image is acquired from the terminal device, and the sky portion included in the sky image is extracted by executing a filtering process on the sky image.
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する画像解析装置とAn image analyzer that calculates an index value that evaluates the reception status of a GNSS antenna that receives signals from the Global Navigation Satellite System (GNSS).
を備えたことを特徴とする画像解析システム。An image analysis system characterized by being equipped with.
画像解析装置が、The image analyzer
第1の地点において一定時間撮影された天空動画を取得し、Acquire the sky video taken for a certain period of time at the first point,
前記一定時間の前記天空動画の開始から前記一定時間より短い所定時間経過後のフレームを天空画像として取得し、A frame after a predetermined time shorter than the fixed time has elapsed from the start of the sky moving image for the fixed time is acquired as a sky image.
前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、By executing the filtering process on the sky image, the sky part included in the sky image is extracted.
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出するCalculate the index value to evaluate the reception status of the GNSS antenna that receives the signal from the Global Navigation Satellite System (GNSS).
処理を実行することを特徴とする画像解析方法。An image analysis method characterized by performing processing.
画像解析装置に、For image analysis equipment
第1の地点において一定時間撮影された天空動画を取得し、Acquire the sky video taken for a certain period of time at the first point,
前記一定時間の前記天空動画の開始から前記一定時間より短い所定時間経過後のフレームを天空画像として取得し、A frame after a predetermined time shorter than the fixed time has elapsed from the start of the sky moving image for the fixed time is acquired as a sky image.
前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、By executing the filtering process on the sky image, the sky part included in the sky image is extracted.
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出するCalculate the index value to evaluate the reception status of the GNSS antenna that receives the signal from the Global Navigation Satellite System (GNSS).
処理を実行させることを特徴とする画像解析プログラム。An image analysis program characterized by executing processing.
第1の地点において天空動画を取得する撮影カメラと、A shooting camera that acquires a sky movie at the first point,
前記撮影カメラから前記天空動画を取得し、The sky moving image is acquired from the shooting camera, and the sky moving image is acquired.
前記天空動画の中央フレームを天空画像として取得する端末装置と、A terminal device that acquires the central frame of the sky movie as a sky image, and
前記端末装置から前記天空画像を取得し、前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、The sky image is acquired from the terminal device, and the sky portion included in the sky image is extracted by executing a filtering process on the sky image.
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出する画像解析装置とAn image analyzer that calculates an index value that evaluates the reception status of a GNSS antenna that receives signals from the Global Navigation Satellite System (GNSS).
を備えたことを特徴とする画像解析システム。An image analysis system characterized by being equipped with.
画像解析装置が、The image analyzer
第1の地点において撮影された天空動画を取得し、Acquire the sky video taken at the first point,
前記天空動画の中央フレームを天空画像として取得し、The central frame of the sky movie is acquired as a sky image, and
前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、By executing the filtering process on the sky image, the sky part included in the sky image is extracted.
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出するCalculate the index value to evaluate the reception status of the GNSS antenna that receives the signal from the Global Navigation Satellite System (GNSS).
処理を実行することを特徴とする画像解析方法。An image analysis method characterized by performing processing.
画像解析装置に、For image analysis equipment
第1の地点において撮影された天空動画を取得し、Acquire the sky video taken at the first point,
前記天空動画の中央フレームを天空画像として取得し、The central frame of the sky movie is acquired as a sky image, and
前記天空画像に対してフィルタリング処理を実行することで前記天空画像に含まれる空の部分を抽出し、By executing the filtering process on the sky image, the sky part included in the sky image is extracted.
全地球型航法衛星システム(GNSS)から信号を受信するGNSSアンテナの受信状況を評価する指標値を算出するCalculate the index value to evaluate the reception status of the GNSS antenna that receives the signal from the Global Navigation Satellite System (GNSS).
処理を実行させることを特徴とする画像解析プログラム。An image analysis program characterized by executing processing.
JP2020148535A 2019-10-28 2020-09-03 Image analysis system, image analysis method, and image analysis program Active JP6941212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020148535A JP6941212B2 (en) 2019-10-28 2020-09-03 Image analysis system, image analysis method, and image analysis program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019195720 2019-10-28
JP2020148535A JP6941212B2 (en) 2019-10-28 2020-09-03 Image analysis system, image analysis method, and image analysis program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019195720 Division 2019-10-28 2019-10-28

Publications (2)

Publication Number Publication Date
JP2021067673A JP2021067673A (en) 2021-04-30
JP6941212B2 true JP6941212B2 (en) 2021-09-29

Family

ID=75637203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020148535A Active JP6941212B2 (en) 2019-10-28 2020-09-03 Image analysis system, image analysis method, and image analysis program

Country Status (1)

Country Link
JP (1) JP6941212B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7256589B2 (en) * 2021-06-29 2023-04-12 株式会社カンドー Measurement point determination method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001159137A (en) * 1999-12-02 2001-06-12 Kumagai Gumi Co Ltd Application-property in-advance investigation device for construction-machinery operating control system using gps
JP4687270B2 (en) * 2005-06-22 2011-05-25 日産自動車株式会社 GPS lost prediction device and vehicle travel control device
JP4866951B2 (en) * 2009-09-16 2012-02-01 株式会社日立製作所 Positioning combination determination system
KR101283189B1 (en) * 2012-12-31 2013-07-05 한국항공우주연구원 Apparatus and method for calculating satellite visibility
JP6829800B2 (en) * 2017-02-02 2021-02-17 国際航業株式会社 Receiver suitability determination method and receiver suitability determination system
JP7179446B2 (en) * 2017-05-22 2022-11-29 キヤノン株式会社 Information processing device, information processing method, and program
JP6804806B2 (en) * 2017-07-25 2020-12-23 日本電信電話株式会社 Positioning accuracy information calculation device and positioning accuracy information calculation method

Also Published As

Publication number Publication date
JP2021067673A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
US9880286B2 (en) Locally measured movement smoothing of position fixes based on extracted pseudoranges
US9602974B2 (en) Dead reconing system based on locally measured movement
US9910158B2 (en) Position determination of a cellular device using carrier phase smoothing
US20150045058A1 (en) Performing data collection based on internal raw observables using a mobile data collection platform
US20120293678A1 (en) Recording data with an integrated field-portable device
JP2008506167A (en) Method and apparatus for determining a location associated with an image
JP6804806B2 (en) Positioning accuracy information calculation device and positioning accuracy information calculation method
KR20090019184A (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method
KR101493418B1 (en) Method for eliminating shadow of aerial photograph and apparatus thereof
CN111750838A (en) Method, device and equipment for generating agricultural land planning map and storage medium
JP6941212B2 (en) Image analysis system, image analysis method, and image analysis program
EP3137923B1 (en) Dead reckoning system based on locally measured movement
JP3874363B1 (en) Position rating device, position rating method, and position rating program
CN106780323B (en) Agricultural condition acquisition and real-time updating method and system based on smart phone
US20170227358A1 (en) Integrated auto-level and electronic rod reader
CN111199557A (en) Quantitative analysis method and system for decay of remote sensor
CN113936009B (en) Cloud shadow removing method, device and equipment for meteorological satellite flood monitoring
CN112764455B (en) Hyperspectral camera data time synchronization method, system, device and storage medium
EP3198222B1 (en) Electronic rod reader and field notebook
Skuljan et al. Automated astrometric analysis of satellite observations using wide-field imaging
RU142151U1 (en) AUTOMATED HARDWARE AND METHODOLOGICAL COMPLEX (AAMK) OF COLLECTION AND PROCESSING OF DATA ON THE PARAMETERS OF DISPLACEMENT OF ELEMENTS OF THE EARTH&#39;S CRUST
CN116912320B (en) Positioning method and device of object elevation coordinate, electronic equipment and medium
EP4375712A1 (en) Mitigating errors in gnss with upward facing sensor
Demange Next-generation positioning for direct georeferencing of multispectral imagery from an Unmanned Aerial System (UAS)
Ashfaq et al. Use of global navigation satellite system (gnss) software defined receiver (sdr) for determining the 3d real time position variation in dense urban areas by averaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210903

R150 Certificate of patent or registration of utility model

Ref document number: 6941212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150