JP4995787B2 - Image storage device, program for image storage device, and image storage system - Google Patents

Image storage device, program for image storage device, and image storage system Download PDF

Info

Publication number
JP4995787B2
JP4995787B2 JP2008216121A JP2008216121A JP4995787B2 JP 4995787 B2 JP4995787 B2 JP 4995787B2 JP 2008216121 A JP2008216121 A JP 2008216121A JP 2008216121 A JP2008216121 A JP 2008216121A JP 4995787 B2 JP4995787 B2 JP 4995787B2
Authority
JP
Japan
Prior art keywords
data
unit
image
video data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008216121A
Other languages
Japanese (ja)
Other versions
JP2010055138A (en
Inventor
泰彦 宮崎
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008216121A priority Critical patent/JP4995787B2/en
Publication of JP2010055138A publication Critical patent/JP2010055138A/en
Application granted granted Critical
Publication of JP4995787B2 publication Critical patent/JP4995787B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は,撮影端末で撮影された映像を整理して蓄積する画像蓄積装置に関するものである。 The present invention relates to an image storage device that organizes and stores videos shot by a shooting terminal.

デジタルビデオカメラの小型化・低価格化に伴い,これらのカメラを,自動車をはじめとした移動体に搭載することが一般化してきている。実際にこのようなカメラは,車載カメラとして製品化され市販されている。   As digital video cameras have become smaller and cheaper, it has become common to mount these cameras on mobile objects such as automobiles. In fact, such a camera has been commercialized and marketed as an in-vehicle camera.

デジタルビデオカメラで撮影された映像データ(以下,時間的に連続な画像データを「映像データ」と呼ぶ)は比較的大容量になるが,振動等に強いSDメモリカード等の大容量化に伴い,相当長い時間の映像データをデジタルデータファイルの形式で格納することも可能になっている。   Video data shot by a digital video camera (hereinafter referred to as “video data”) is relatively large in capacity, but with the increase in capacity of SD memory cards that are resistant to vibration, etc. It is also possible to store video data for a considerably long time in the form of a digital data file.

また,GPS(Global Positioning System )の小型化・低価格化に伴い,このような自己位置を特定することができる機器も,自動車をはじめとした移動体に搭載することが一般化してきている。   In addition, along with the downsizing and lowering of the price of GPS (Global Positioning System), it has become common to mount such a device that can identify its own position on a moving body such as an automobile.

一方で,撮影されたデータに対しては,ハードディスク装置(HDD)等の大容量化・低価格化に伴い,やはりデジタルデータファイルの形式で,オフィス・データセンタ等に設置されたパーソナルコンピュータ(PC)やサーバ機器にコピーをして,長時間分の撮影データを蓄積することが可能になっている。   On the other hand, for the captured data, a personal computer (PC) installed in an office / data center or the like in the form of a digital data file in accordance with the increase in capacity and price of a hard disk drive (HDD). ) And server devices, and it is possible to accumulate long-term shooting data.

これらの従来技術により,車載カメラで撮影され,SDメモリカード等に蓄積された映像データを,そのまま撮影者によりサーバ等のHDDへ順次ファイルとしてコピーしていった場合,それだけではそのファイル名等を知らない限り,記録した映像データを有効に利用することができない。   With these conventional technologies, when video data shot with an in-vehicle camera and stored in an SD memory card or the like is copied as it is to a HDD such as a server by a photographer as it is, the file name etc. The recorded video data cannot be used effectively unless you know it.

これに対しては,例えば下記の特許文献1では,GPSから得られた位置情報を画像情報と同期させて記録する方法が考えられており,この方法を用いることにより,車載カメラで撮影された映像データのフレーム番号と,その時点で取得した位置情報とをセットで記録しておくことによって,利用者により指定された緯度・経度等の位置情報から指定された距離範囲内にある映像データの対象フレーム画像を検索するシステムを,容易に構成することができる。なお,フレーム番号は,映像データ中の何番目の画像データかを示す番号であり,フレーム番号が特定されることにより,映像データ内の画像データが特定される。   For this, for example, in Patent Document 1 below, a method of recording position information obtained from GPS in synchronization with image information is considered, and by using this method, an image is taken with an in-vehicle camera. By recording the frame number of the video data and the position information acquired at that time as a set, the video data within the specified distance range from the position information such as latitude and longitude specified by the user is recorded. A system for retrieving the target frame image can be easily configured. The frame number is a number indicating the number of image data in the video data. By specifying the frame number, the image data in the video data is specified.

また,画像処理技術の発達により,映像データファイルから直接的に取得できる画素数,フレームレート(映像1秒当たりが何フレームの画像から構成されているかを示す値)や,画素値から簡単に算出できる画像の明るさといった特徴量のほかに,映像内における動き(カメラワーク)を抽出することが可能であり,さらに画像認識によりオブジェクトを検出することも可能である。   In addition, with the development of image processing technology, the number of pixels that can be obtained directly from the video data file, the frame rate (a value indicating how many frames an image per second is composed of), and the pixel value can be easily calculated. In addition to feature quantities such as image brightness, it is possible to extract motion (camera work) in the video, and it is also possible to detect objects by image recognition.

また,特許文献2の主に段落0037から段落0047には,映像における隣接フレーム間において,画像全体の類似度による全体変化量と局所的な類似度による局所集合変化量という2種類の特徴量を求めることによって,手ぶれと急激なカメラワークを検出する技術が記載されている。   Further, mainly in paragraphs 0037 to 0047 of Patent Document 2, two types of feature amounts, that is, an overall change amount due to the similarity of the entire image and a local set change amount due to the local similarity between adjacent frames in the video are included. A technique for detecting camera shake and abrupt camerawork by seeking is described.

特許文献3の主に段落0041から段落0049には,あらかじめ撮影された画像(登録用画像)から特徴点を抽出して学習マップを用意しておき,それを入力画像(認識用画像)から抽出された特徴点を,ずらしマッチング処理を行うことにより探索し,画像認識を行う技術が記載されている。   In Patent Document 3, mainly in paragraphs 0041 to 0049, feature points are extracted from previously captured images (registration images) to prepare learning maps, which are extracted from input images (recognition images). A technique is described in which image recognition is performed by searching for the feature points that have been performed by performing shift matching processing.

また,非特許文献1に記載の方法によれば,指定された文字列が含まれる画像の検索を行うことが可能であり,この方法を使うことによって,画像中の案内標識,看板(文字看板)等に特定の文字列が含まれるかどうかを自動認識することができる。
特開平7−123348号公報 特開2000−261757号公報 特開2007−299364号公報 「画像インデクシングを目的としたテキスト領域抽出不要の景観中文字認識」,電子情報通信学会 信学技報 PRMU2004-89 (2004-10) ,p.37-42
Further, according to the method described in Non-Patent Document 1, it is possible to search for an image including a designated character string. By using this method, a guide sign, signboard (character signboard) in the image can be searched. ) Etc., it is possible to automatically recognize whether or not a specific character string is included.
Japanese Patent Laid-Open No. 7-123348 JP 2000-261757 A JP 2007-299364 A “Recognition of characters in landscape without image extraction for image indexing”, IEICE Technical Report PRMU2004-89 (2004-10), p.37-42

しかしながら,従来の技術では,複数の撮影者により長期間にわたって繰り返し撮影を続けることにより,サーバに蓄積されるデータの更新がなされることに関しての考慮がなされていない。   However, in the conventional technology, consideration is not given to updating of data stored in the server by continuously taking images over a long period of time by a plurality of photographers.

すなわち,同一市町村内や担当営業地域内など,一定の地域内で繰り返し車を走らせるような業務を行っている業種は,物流業者・タクシー事業者・設備や道路の維持管理工事業者など多々あり,これらの車に搭載したデジタルビデオカメラにより撮影を行ってくると,対象地域を網羅した画像データが取得できるはずである。しかしながら,単純に撮影した画像データをサーバに逐次追加して記憶していくと,いかにHDD等の外部記憶装置が大容量化しているとはいえ,一方的に増加していくため,簡単にサーバの記憶容量限界を超えてしまう。   In other words, there are many industries such as logistics companies, taxi operators, equipment, and road maintenance management contractors that carry out operations that repeatedly run cars in a certain area, such as in the same municipality or sales area. If you take a picture with a digital video camera installed in these cars, you should be able to acquire image data covering the target area. However, simply adding captured image data to the server sequentially and storing them increases the capacity of external storage devices such as HDDs, but increases unilaterally. Exceeds the storage capacity limit.

また,他の課題として,位置を指定して画像検索を行った場合,特にそれが幹線道路等の撮影者が頻繁に通る位置であったときに,検索結果として条件に合致するデータが不必要なまでに数多くヒットしてしまうという問題もある。   Also, as another issue, when searching for an image with a specified position, especially when it is a position where photographers such as arterial roads frequently pass, there is no need for data that matches the search results. There is also the problem of hitting so many.

以上のような問題への対策として,サーバの容量を一定に保つために,同時に取得された位置情報をもとに,同一位置(もしくは,ある閾値距離以内)のデータが既にサーバ存在する場合には,古いデータを削除して新たに撮影されたデータのみを記憶することが考えられる。また,検索における結果を絞り込むために,撮影時刻あるいはサーバへの更新時刻が新しいもののみを検索結果としてヒットさせることも考えられる。   As a countermeasure against the above problems, in order to keep the server capacity constant, based on the location information acquired at the same time, if data at the same location (or within a certain threshold distance) already exists In this case, it is possible to delete old data and store only newly taken data. Also, in order to narrow down the search results, it is also possible to hit only those having a new shooting time or update time to the server as a search result.

しかしながら,例えばある日に撮影した画像データは晴れた日中で画像が鮮明に映っており,その翌日に同一地点から撮影した画像データは雨天の夕暮れ時で画像が不鮮明というような場合もあり得る。このようなケースがあることを考えると,最新のデータだけを蓄積したり,最新のデータだけを検索結果としてヒットさせる方式では,不鮮明な翌日のデータが参照されるようになってしまうという課題が生じる。   However, for example, the image data taken on one day may be clearly displayed on a clear day, and the image data taken from the same point on the next day may be unclear at dusk in the rain. . Considering that there are cases like this, the method of accumulating only the latest data or hitting only the latest data as a search result has the problem that the next day's unclear data will be referenced. Arise.

この例の場合,2日間の撮影者が同一であった場合には,その撮影者の判断として,翌日のデータはサーバに登録しないといった対処方法は可能であるが,多人数の撮影者がいる場合には,いちいち上書き登録すべきか否かの確認を行うことは大きな作業負担となるという課題がある。   In this example, if the photographers for the two days are the same, it is possible for the photographer to determine that the next day's data is not registered in the server, but there are many photographers. In such a case, there is a problem that it is a heavy work burden to confirm whether or not to perform overwriting registration one by one.

本発明は,以上のような課題を解決し,画像の利用者にとって有効なデータだけをサーバに簡単に登録することができるようにすることを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems and to easily register only data effective for an image user in a server.

本発明は,上記課題を解決するために,受信したデータからそのデータの有効度を算出する評価部を設け,その評価結果に応じてサーバ登録時に上書きして登録すべきか否かを自動的に判断する。   In order to solve the above problem, the present invention provides an evaluation unit that calculates the validity of the data from the received data, and automatically determines whether or not to overwrite and register at the time of server registration according to the evaluation result. to decide.

詳しくは,本発明は,撮影端末で撮影された映像を受信し,蓄積する画像蓄積装置(データ処理サーバ)であって,映像データとその映像データに対応付けられた撮影位置を示す位置データとを含むデータを,前記撮影端末から受信するサーバデータ受信部と,映像データに対応付けられた位置データを利用して,受信した映像データのフレームの位置をマッピングし,予め区切られた道路区間に対応するように当該映像データを分割して単位映像データを得る手段と,前記単位映像データと,その単位映像データに対して所定の評価式によって算出されたデータの有効度の値とを蓄積する画像データ蓄積部と,前記サーバデータ受信部により前記撮影端末からデータを受信したときに,受信したデータから得られる新しい単位映像データごとに,既に同じ道路区間で撮影された単位映像データが前記画像データ蓄積部に蓄積されている場合には,前記新しい単位映像データについて前記所定の評価式に従ってそのデータの有効度の値を算出し,蓄積されているデータの有効度の値との大小比較によって,前記画像データ蓄積部に蓄積されている単位映像データとそのデータの有効度の値とを前記新しい単位映像データとそのデータの有効度の値とで更新するかどうかを決定するデータ評価部とを備えることを特徴としている。 Specifically, the present invention is an image storage device (data processing server) that receives and stores video shot by a shooting terminal, and includes video data and position data indicating a shooting position associated with the video data, Is used to map the position of the frame of the received video data using a server data receiving unit that receives data including the image data from the photographing terminal and the position data associated with the video data, and to the road section delimited in advance. Corresponding means for dividing the video data so as to obtain unit video data, and storing the unit video data and the validity value of the data calculated by a predetermined evaluation formula for the unit video data an image data storage section, when the, your new unit image data obtained from the received data the received data from the imaging device by the server data receiver The already when the unit video data captured at the same road section is accumulated in the image data storage unit calculates the value of the effectiveness of the data above for the new unit video data according to the predetermined evaluation formula The unit video data stored in the image data storage unit and the validity value of the data are compared with the validity value of the stored data by comparing the new unit video data and the validity of the data. And a data evaluation unit that determines whether or not to update with the degree value.

これによって,画像データ蓄積部に蓄積する価値の小さい不要なデータが蓄積されることを回避することができるようになる。   As a result, it is possible to avoid storing unnecessary data with a small value stored in the image data storage unit.

前記データ評価部が用いる評価式としては,前記データの有効度の値が,単位映像データのフレーム数が大きいほど大きくなる評価式,もしくは前記単位映像データの解像度が大きいほど大きくなる評価式,もしくは前記単位映像データに含まれるピクセルの明度の平均値が大きいほど大きくなる評価式,もしくは前記単位映像データにおける各フレームの明度差の平均値が大きいほど大きくなる評価式,もしくは撮影日時が新しいほど大きくなる評価式,もしくは所定の方法で算出された蓄積対象の映像区間中の非手ぶれ区間率が大きいほど大きくなる評価式,またはこれらの評価式のうち複数を組み合わせた評価式を用いることができる。 The evaluation formula the data evaluation unit is used, the value of the effectiveness of the data, evaluation equation becomes larger as the number of frames the video data is large, or larger the larger the resolution of the unit video data evaluation formula, or An evaluation formula that increases as the average value of the brightness of the pixels included in the unit video data increases, or an evaluation formula that increases as the average value of the brightness difference of each frame in the unit video data increases, or a new shooting date and time increases. Or an evaluation formula that increases as the non-handshake segment ratio in the video segment to be accumulated calculated by a predetermined method increases, or an evaluation formula that combines a plurality of these evaluation formulas.

これにより,鮮明な単位映像データを優先的に画像データ蓄積部に蓄積することができるようになる。 As a result, clear unit video data can be preferentially stored in the image data storage unit.

さらに,前記画像蓄積装置は,前記撮影端末から受信したデータ内の映像データに写っているオブジェクトを認識するデータ認識部と,前記データ認識部が認識した認識結果を蓄積する認識データ蓄積部とを備え,前記データ評価部は,前記データの有効度の値の算出において前記認識データ蓄積部に蓄積された認識結果を利用し,認識率が大きいほどデータの有効度の値が大きくなる評価式を用いてデータの有効度の値を算出するように構成してもよい。 Further, the image storage device includes a data recognition unit for recognizing an object reflected in video data in data received from the photographing terminal, and a recognition data storage unit for storing a recognition result recognized by the data recognition unit. The data evaluation unit uses a recognition result stored in the recognition data storage unit in the calculation of the value of the validity of the data, and an evaluation formula that increases the value of the data effectiveness as the recognition rate increases. The data validity value may be calculated by using the data .

被写体である何らかのオブジェクトに対する認識率が高い映像データは,鮮明な映像データであることが多いので,認識率をデータの有効性の判断に用いることにより,適切な単位映像データを画像データ蓄積部に蓄積することが可能になる。 Video data with a high recognition rate for any object that is a subject is often clear video data. Therefore, by using the recognition rate to determine the validity of the data , appropriate unit video data is stored in the image data storage unit. It becomes possible to accumulate.

また,前記発明において,前記データ評価部は,前記画像データ蓄積部に蓄積する同じ道路区間で撮影された単位映像データの個数を最大n個(ただし,nは1以上の整数)とし,前記受信したデータの有効度の値が,前記画像データ蓄積部に蓄積されている同じ道路区間で撮影された単位映像データを含むデータの有効度のn番目に大きい値より大きい場合に,その蓄積されているデータのうち最もデータの有効度の小さいデータを削除して前記受信したデータから得られる単位映像データを前記画像データ蓄積部に保存し,小さい場合に,前記受信したデータから得られる単位映像データを前記画像データ蓄積部に蓄積しないで棄却するように構成することもできる。 In the present invention, the data evaluation unit sets the number of unit video data captured in the same road section stored in the image data storage unit to a maximum of n (where n is an integer of 1 or more), and the reception If the data validity value is greater than the nth largest value of the data validity including the unit video data shot in the same road section stored in the image data storage unit, Unit video data obtained from the received data by deleting the least effective data from the received data and stored in the image data storage unit, and if smaller, unit video data obtained from the received data Can be rejected without being stored in the image data storage unit.

これによって,nの設定値に応じた量の有効な単位映像データの蓄積が可能になる。 This makes it possible to store effective unit video data in an amount corresponding to the set value of n.

また,前記発明において,前記データ評価部は,前記画像データ蓄積部に,道路区間ごとの単位映像データを保存するときに,前記道路区間の上り方向と下り方向とを区別しないで同じ道路区間であるか否かを判断するように構成することもできる。 Further, in the invention, the data evaluation unit, to the image data storage unit, when storing the unit image data for each road segment, the same road section without distinguishing between uplink and downlink direction of the road section It can also be configured to determine whether or not there is.

車載カメラで撮影した映像のような場合,画像データ蓄積部に蓄積する単位映像データの用途によっては,上り方向と下り方向とを区別したほうがよい場合もあるが,区別する必要がない場合には,画像データ蓄積部に蓄積する単位映像データの量を少なくすることができる。 In the case of video shot with an in-vehicle camera, depending on the application of unit video data stored in the image data storage unit, it may be better to distinguish the up direction and the down direction. Therefore, the amount of unit video data stored in the image data storage unit can be reduced.

また,前記発明において,前記データ評価部は,異なる時間帯,曜日,期日または期間に撮影された映像データについては,別々に前記データの有効度の値の算出およびデータの有効度の値の大小比較を行うように構成することもできる。 In the present invention, the data evaluation unit separately calculates the validity value of the data and the magnitude of the validity value of the data for video data shot at different time periods, days of the week, due dates, or periods. It can also be configured to make a comparison.

これによって,例えば昼に撮影された映像と,夜に撮影された映像,もしくは通勤時間帯に撮影された映像などのように,異なる時間帯の単位映像データを別々に蓄積することができるようになる。あるいは,平日/休日で分けることや,降雪地域では,12月から3月頃までの降雪季節とそれ以外の季節に分けるというようなことも同様に可能である。 Thus, the image photographed in the daytime for example, such as video captured on video, or commuting hours was taken in the evening, a unit video data of different time zones to be able to accumulate separately Become. Alternatively, it is possible to divide by weekday / holiday, and in snowfall areas, it can be divided into the snowing season from December to March and other seasons.

また,画像蓄積システムは,前記画像蓄積装置を備えるとともに,映像を撮影する撮影部と,撮影時の位置情報を取得する位置取得部と,前記撮影された映像データと前記取得された位置データとを対応付けて蓄積する端末蓄積部と,前記端末蓄積部に蓄積されたデータを前記画像蓄積装置へ送信する端末送信部とを有する撮影端末を備える。 The image storage system includes the image storage device, an image capturing unit that captures an image , a position acquisition unit that acquires position information at the time of image capturing, the captured image data, and the acquired position data. And a terminal storage unit that transmits the data stored in the terminal storage unit to the image storage device.

前記画像蓄積システムにおいて,前記撮影端末と前記画像蓄積装置との間に,前記撮影端末からのデータを無線LANインタフェースにより受信するアクセスポイントデータ受信部と,受信したデータを前記画像蓄積装置に送信するアクセスポイントデータ送信部とからなるデータ中継器を備える構成としてもよい。   In the image storage system, an access point data receiving unit that receives data from the shooting terminal via a wireless LAN interface between the shooting terminal and the image storage device, and transmits the received data to the image storage device. It is good also as a structure provided with the data repeater which consists of an access point data transmission part.

このデータ中継器を備える画像蓄積システムでは,撮影端末として携帯電話などを利用する場合に比べて,撮影端末の通信コストを削減することができる。   In the image storage system including this data repeater, the communication cost of the photographing terminal can be reduced as compared with the case where a mobile phone or the like is used as the photographing terminal.

本発明によれば,同じ位置において重複して撮影されたような映像のうち,鮮明な映像だけを蓄積することができるようになり,映像の利用者にとって有効なデータを少ない記憶容量で保存することができるようになる。 According to the present invention, it becomes possible to accumulate only clear images among images that have been taken in duplicate at the same position, and save data effective for the user of the image with a small storage capacity. Will be able to.

以下,本発明を適用した画像蓄積装置の実施の形態を図面を用いて詳細に説明する。   Embodiments of an image storage apparatus to which the present invention is applied will be described in detail below with reference to the drawings.

図1は,本発明の実施の形態に係るシステム全体の構成例を示している。図1において,10は車載カメラやカメラ付き携帯電話その他の撮影端末,20は撮影端末10で撮影された画像を蓄積する画像蓄積装置であるデータ処理サーバ,30は無線LANでの通信をインターネットに中継するデータ中継器である。撮影端末10が,直接,電話網や通信網を介してデータ処理サーバ20と通信を行えるような構成の場合には,データ中継器30は設けなくてもよい。   FIG. 1 shows a configuration example of the entire system according to the embodiment of the present invention. In FIG. 1, reference numeral 10 denotes an in-vehicle camera, a camera-equipped mobile phone or other imaging terminal, 20 denotes a data processing server which is an image storage device for storing images taken by the imaging terminal 10, and 30 denotes communication over a wireless LAN over the Internet. It is a data repeater to relay. In the case where the photographing terminal 10 is configured to be able to communicate with the data processing server 20 directly via a telephone network or a communication network, the data relay 30 may not be provided.

撮影端末10は,撮影部11,位置情報取得部12,端末蓄積部13,端末データ送信部14を備える。これらの詳細については後述する。   The imaging terminal 10 includes an imaging unit 11, a position information acquisition unit 12, a terminal storage unit 13, and a terminal data transmission unit 14. Details of these will be described later.

データ処理サーバ20は,サーバデータ受信部21,データ評価部22,画像データ蓄積部23,データ認識部24,認識データ蓄積部25を備える。これらの詳細についても後述する。   The data processing server 20 includes a server data receiving unit 21, a data evaluation unit 22, an image data storage unit 23, a data recognition unit 24, and a recognition data storage unit 25. These details will also be described later.

データ中継器30は,撮影端末10から通信要求を受け付けるアクセスポイントデータ受信部31,要求された通信データをインターネット等を介してデータ処理サーバ20へ送信するアクセスポイントデータ送信部32を備える。   The data repeater 30 includes an access point data receiving unit 31 that receives a communication request from the photographing terminal 10 and an access point data transmitting unit 32 that transmits the requested communication data to the data processing server 20 via the Internet or the like.

図2は,撮影端末10の構成例を示している。この例では,撮影端末10の本体部として,フラッシュメモリ130を内蔵した小型可搬PC(パーソナルコンピュータ)100を用い,図1の撮影部11としてデジタルカメラ110,位置情報取得部12としてGPS装置120,端末データ送信部14としてデータ通信用携帯電話140を用いている。フラッシュメモリ130は,端末蓄積部13として用いられている。デジタルカメラ110,GPS装置120,データ通信用携帯電話140は,USBケーブル等により,小型可搬PC100に接続される。もちろん,本発明は,これらの機器を一体型として組み込んだものを撮影端末10として実施することも可能である。   FIG. 2 shows a configuration example of the photographing terminal 10. In this example, a small portable PC (personal computer) 100 having a built-in flash memory 130 is used as the main body of the photographing terminal 10, the digital camera 110 is used as the photographing unit 11 in FIG. 1, and the GPS device 120 is used as the position information obtaining unit 12. The mobile phone 140 for data communication is used as the terminal data transmitter 14. The flash memory 130 is used as the terminal storage unit 13. The digital camera 110, the GPS device 120, and the data communication mobile phone 140 are connected to the small portable PC 100 by a USB cable or the like. Of course, the present invention can also be implemented as an imaging terminal 10 in which these devices are integrated.

デジタルカメラ110は,車両のダッシュボードやフロントグリル内など,前方外部が撮影できる位置に固定して設置される。また,GPS装置120も,GPS衛星からの電波を受信可能なダッシュボードや車外の天井等に設置される。小型可搬PC100とデータ通信用携帯電話140も車内の運転に支障がない場所に固定して設置される。   The digital camera 110 is fixedly installed at a position where the outside of the front can be photographed, such as a dashboard of a vehicle or a front grill. The GPS device 120 is also installed on a dashboard that can receive radio waves from GPS satellites, a ceiling outside the vehicle, and the like. The small portable PC 100 and the mobile phone 140 for data communication are also fixedly installed in a place where there is no problem in driving in the vehicle.

デジタルカメラ110により撮影された,2次元配列上の画素(ピクセル)ごとのRGB値の数値データに変換された画像データは,逐次,JPEG形式の瞬間ごとの画像に変換され,それらのデータを一定時間分まとめたモーションJPEG形式のファイルとしてフラッシュメモリ130を利用した記憶ドライブに格納される。あるいは,連続した画像が1つの映像としてMPEG形式のファイルに変換されて,フラッシュメモリ130を利用した記憶ドライブに格納される。このようなモーションJPEGあるいはMPEGといった標準形式のファイルとして映像データを保存するための手段は,市販されているPC上のソフトウェアを利用して実現することもできる。   Image data captured by the digital camera 110 and converted into numerical data of RGB values for each pixel (pixel) on the two-dimensional array are sequentially converted into images for each moment in JPEG format, and these data are fixed. It is stored in a storage drive using the flash memory 130 as a motion JPEG format file compiled for a certain amount of time. Alternatively, continuous images are converted into MPEG format files as one video and stored in a storage drive using the flash memory 130. Such means for storing video data as a standard format file such as motion JPEG or MPEG can also be realized by using software on a commercially available PC.

GPS装置120からも,逐次,GPS衛星からの電波を受けて算出された自己位置のデータが小型可搬PC100に送られてくる。自己位置のデータは,決められた様式のテキストデータとして送られてくるので,そのテキストデータを小型可搬PC100上のソフトウェアで解析することにより,緯度・経度のデータを取り出すことができる。その時点で,デジタルカメラ110から取得し映像ファイルとして書き込みを行っている映像のファイル名とフレーム番号とともに,緯度・経度のデータを,例えば図3のような表形式の画像データ管理テーブルに,1レコードずつ書き込む。あるいは,図3のようなデータを表すカンマ区切りのテキストファイル等に1行ずつ書き込むといった実施も可能である。   Also from the GPS device 120, the self-position data calculated by receiving radio waves from GPS satellites is sequentially sent to the small portable PC 100. Since the self-location data is sent as text data in a predetermined format, the latitude / longitude data can be extracted by analyzing the text data with software on the small portable PC 100. At that time, along with the file name and frame number of the video acquired from the digital camera 110 and written as a video file, the latitude / longitude data is stored in a table format image data management table as shown in FIG. Write records one by one. Alternatively, it is possible to write one line at a time in a comma-delimited text file representing data as shown in FIG.

図3に示す画像データ管理テーブル(あるいはテキストファイル)は,映像ファイルのファイル名,フレーム番号,撮影時刻,緯度,経度等のデータ項目により構成され,フラッシュメモリ130上のファイルとして格納される。このように,端末蓄積部13は,フラッシュメモリ130上に撮影された画像データと取得された位置データを共に蓄積するように構成できる。   The image data management table (or text file) shown in FIG. 3 includes data items such as the file name, frame number, shooting time, latitude, and longitude of the video file, and is stored as a file on the flash memory 130. Thus, the terminal storage unit 13 can be configured to store both the image data captured on the flash memory 130 and the acquired position data.

この小型可搬PC100に接続したデータ通信用携帯電話140を用いて,インターネットにこの端末を接続し,やはりインターネット上に接続されたデータ処理サーバ20に対して,データ通信用のコネクションを確立することができる。このようにして確立されたデータ通信コネクションを通じて,フラッシュメモリ130上に蓄積された画像データと位置データを,データ処理サーバ20に転送する。特に,標準化されたHTTPプロトコルを利用し,データ処理サーバ20上のHTTPサーバプロセスに対してデータを送信するソフトウェアを,撮影端末10を構成する小型可搬PC100上に実装することは容易である。   Using the data communication mobile phone 140 connected to the small portable PC 100, connect this terminal to the Internet and establish a data communication connection to the data processing server 20 also connected to the Internet. Can do. The image data and the position data stored on the flash memory 130 are transferred to the data processing server 20 through the data communication connection thus established. In particular, it is easy to implement software for transmitting data to the HTTP server process on the data processing server 20 on the small portable PC 100 constituting the photographing terminal 10 using the standardized HTTP protocol.

この場合に,データ送信のためのHTTPリクエストに対する正常・異常を示すリターン値を定めておくことにより,データ処理サーバ20が確実にデータの転送を受けたか否かを送信側である小型可搬PC100上のソフトウェアが判断できるので,処理異常時にはリトライを行い,処理正常時には送信済みのデータをフラッシュメモリ130から削除するという構成をとることができる。   In this case, by determining a return value indicating normality / abnormality with respect to the HTTP request for data transmission, it is possible to determine whether or not the data processing server 20 has reliably received the data transfer. Since the above software can be determined, it is possible to perform a retry when the process is abnormal and to delete the transmitted data from the flash memory 130 when the process is normal.

図4は,撮影端末10の他の構成例を示す図である。図2で説明した撮影端末10との差異がある部分は,撮影端末10からのデータ送信方式にあり,図2の撮影端末10では,端末データ送信部14としてデータ通信用携帯電話140を用いていたのに対し,本実施例では,無線LANカード141を用いている。他のデジタルカメラ111,GPS装置121,フラッシュメモリ131,小型可搬PC101の部分は,図2に示すものとほぼ同様である。   FIG. 4 is a diagram illustrating another configuration example of the photographing terminal 10. The difference from the photographing terminal 10 described in FIG. 2 is the data transmission method from the photographing terminal 10, and the photographing terminal 10 in FIG. 2 uses a mobile phone 140 for data communication as the terminal data transmission unit 14. In contrast, in this embodiment, a wireless LAN card 141 is used. The other digital camera 111, GPS device 121, flash memory 131, and small portable PC 101 are substantially the same as those shown in FIG.

無線LANカード141を用いる場合,データ通信用携帯電話140とは異なり,無線LANアクセスポイントの電波範囲内という限られた場所でのみ利用可能であるため,撮影端末10の処理としては,あらかじめアクセスポイント(データ中継器30)の位置を登録しておき,位置情報がその範囲内に入ったときにデータ通信用コネクションを確立するようにしておく。あるいは,撮影端末10上に利用者が操作できる「通信ボタン」を配置し,そのボタンが押されたときに接続するようにするという実施例も考えられる。   When the wireless LAN card 141 is used, unlike the mobile phone 140 for data communication, the wireless LAN card 141 can be used only in a limited place within the radio wave range of the wireless LAN access point. The position of the (data repeater 30) is registered, and a data communication connection is established when the position information falls within the range. Alternatively, an embodiment may be considered in which a “communication button” that can be operated by the user is arranged on the photographing terminal 10 and connected when the button is pressed.

データ中継器30は,無線LANカード141を用いた無線LANインタフェースでの通信をインターネットに中継するもので,このような機能を持った装置は市販されている。また,このようにして送信されるデータは,図2の撮影端末10を用いた場合と変わらないため,データ処理サーバ20はまったく同じ構成で実施できる。   The data repeater 30 relays communication via a wireless LAN interface using the wireless LAN card 141 to the Internet, and a device having such a function is commercially available. Further, since the data transmitted in this way is not different from the case where the photographing terminal 10 of FIG. 2 is used, the data processing server 20 can be implemented with exactly the same configuration.

図4に示す撮影端末10では,一般に通信コストが高く通信速度も低速な携帯電話を使わないので,コストと通信速度の面で有利であるという効果がある。   The photographing terminal 10 shown in FIG. 4 is advantageous in terms of cost and communication speed because it generally does not use a mobile phone having a high communication cost and a low communication speed.

図5は,図4に示す撮影端末10を用いるときに利用するデータ中継器30の構成例を示している。   FIG. 5 shows a configuration example of the data repeater 30 used when the imaging terminal 10 shown in FIG. 4 is used.

本実施例におけるデータ中継器30は,撮影端末10からの無線LANアクセスポイント301と,インターネット50に接続するためのネットワークカード(イーサネットカード)303と,これらを制御する制御用CPU302から構成される。このようなデータ中継器30としては,市販されている既存のものを用いることができる。   The data repeater 30 in this embodiment includes a wireless LAN access point 301 from the photographing terminal 10, a network card (Ethernet card) 303 for connecting to the Internet 50, and a control CPU 302 for controlling these. As such a data repeater 30, a commercially available existing one can be used.

次に,データ処理サーバ20の実施例について説明する。図6は,データ処理サーバ20のハードウェア構成例を示している。   Next, an embodiment of the data processing server 20 will be described. FIG. 6 shows a hardware configuration example of the data processing server 20.

データ処理サーバ20は,図6に示すように,プログラム格納域202に格納された命令をフェッチして実行するCPU201,磁気ディスク装置(HDD)203,メモリ204,インターネット50に接続するためのアダプタであるネットワークカード205などからなる汎用的な計算機を用いて構成され,これらのハードウェアとプログラム格納域202に格納されるソフトウェアプログラムとによって,図1に示すサーバデータ受信部21,データ評価部22,画像データ蓄積部23,データ認識部24,認識データ蓄積部25が実現される。   As shown in FIG. 6, the data processing server 20 is an adapter for connecting to a CPU 201, a magnetic disk device (HDD) 203, a memory 204, and the Internet 50 that fetches and executes instructions stored in the program storage area 202. The server data reception unit 21, the data evaluation unit 22, and the software program stored in the program storage area 202 are configured using a general-purpose computer including a network card 205. An image data storage unit 23, a data recognition unit 24, and a recognition data storage unit 25 are realized.

このうち,データ処理サーバ20における画像データ蓄積部23としては,汎用的なデータベースマネージメントシステム(DBMS)を利用し,図7のようなテーブルを構成することで実現する。すなわち,画像データ蓄積部23には,単位映像データ(詳細は後述),撮影時刻,起点と終点のそれぞれの緯度・経度のデータなどが格納される。なお,この例では,映像データそのものをテーブル上の1つのカラムとして格納する方式としているが,他の実施例として,映像データは通常のファイル形式としておき,DBMS内のテーブルには,そのファイル名を管理することで同様に本発明を実施することも可能である。   Among these, the image data storage unit 23 in the data processing server 20 is realized by using a general-purpose database management system (DBMS) and configuring a table as shown in FIG. That is, the image data storage unit 23 stores unit video data (details will be described later), shooting time, latitude / longitude data of the start and end points, and the like. In this example, the video data itself is stored as one column on the table. However, as another embodiment, the video data is stored in a normal file format, and the file name is stored in the table in the DBMS. It is also possible to implement the present invention in the same manner by managing the above.

図8は,サーバデータ受信部21の処理フローチャートである。サーバデータ受信部21は,上記で説明した撮影端末10の端末データ送信部14の実施例に対応して,図8のような処理の実行機能を持つ。   FIG. 8 is a process flowchart of the server data receiving unit 21. The server data receiving unit 21 has a process execution function as shown in FIG. 8 corresponding to the embodiment of the terminal data transmitting unit 14 of the photographing terminal 10 described above.

サーバデータ受信部21は,まずステップS1において,端末データ送信部14から送られてきたHTTPリクエストを受信し,ステップS2では,HTTPプロトコルにより送信されてくる映像データと位置データとを,それぞれデータ処理サーバ20内に映像ファイル40,位置情報テキストファイル41の一時ファイルとして復元する。   The server data receiving unit 21 first receives an HTTP request sent from the terminal data sending unit 14 in step S1, and in step S2, the video data and the position data sent by the HTTP protocol are respectively processed by data processing. The server 20 restores the video file 40 and the position information text file 41 as temporary files.

次に,ステップS3により,エラーなく復元できたかどうかを判定し,正常に復元できた場合には,ステップS4により,データ評価部22に対してファイル受信があったことをファイル名と共にイベント情報として通知する。また,撮影端末10に対しては,ステップS5により,処理途中での異常の有無を返却する。   Next, in step S3, it is determined whether or not the data can be restored without error. If the data can be restored normally, in step S4, the fact that the file has been received by the data evaluation unit 22 is recorded as event information together with the file name. Notice. Further, the presence or absence of abnormality during the process is returned to the photographing terminal 10 in step S5.

図9は,データ評価部22の処理フローチャートである。なお,ここでは主に分割された単位映像ごとにデータを評価する例を説明するが,もっと単純に各フレームの画像ごとにデータを評価する実施も可能であることは,以下の説明から明らかである。   FIG. 9 is a process flowchart of the data evaluation unit 22. Although an example in which data is evaluated for each divided unit video will be described here, it is apparent from the following description that data can be evaluated more simply for each frame image. is there.

データ評価部22は,ステップS10にて,サーバデータ受信部21からイベントの通知を受けて処理を開始する。まず,ステップS11では,一時ファイルとして保存されている映像ファイル40と位置情報テキストファイル41のデータから,単位映像に分割する処理を行う。ここで単位映像とは,撮影された地域の道路をあらかじめ区切った単位のことをいう。   In step S10, the data evaluation unit 22 receives a notification of the event from the server data reception unit 21 and starts processing. First, in step S11, a process of dividing the video into the unit video from the data of the video file 40 and the position information text file 41 saved as a temporary file is performed. Here, the unit video means a unit obtained by dividing a road in a photographed area in advance.

図10は,単位映像区間の説明図である。映像区間は,図10(A)に示すように各交差点で区切ることや,図10(B)に示すように交差点とは無関係に一定間隔で区切ることなどが考えられる。さらに,極端な場合として,図10(C)に示すように一地点ごと(映像の1フレーム画像)に区切ることも考えられる。   FIG. 10 is an explanatory diagram of a unit video section. The video section can be divided at each intersection as shown in FIG. 10A, or can be divided at regular intervals regardless of the intersection as shown in FIG. 10B. Further, as an extreme case, as shown in FIG. 10C, it is conceivable to divide each point (one frame image).

映像ファイル40に格納されている映像を単位映像に分割するためには,映像内の各フレームごとの位置情報が必要であるが,映像取得の間隔(すなわち映像のフレームレート)と位置情報取得の間隔が異なり,フレーム番号に対応する位置情報がないこともあり得る。しかし,その場合には,前後のフレームのうち位置情報が付与された情報を利用して,比例配分などの計算式によって近似することで,各フレームに対する位置情報を付与できる。   In order to divide the video stored in the video file 40 into unit videos, position information for each frame in the video is necessary. However, the interval of video acquisition (that is, the frame rate of the video) and the position information acquisition are required. It is possible that the interval is different and there is no position information corresponding to the frame number. However, in that case, the position information for each frame can be given by using the information to which the position information is given among the preceding and following frames and approximating it by a calculation formula such as proportional distribution.

なお,図10(A)および(B)のような区切りを行う例の場合には,あらかじめ,対象となる地域の道路地図データなどを保持しておき,映像中の各フレームの画像が,どの道路地点のデータであるかを検索する。このとき,一般にGPSで取得される位置には誤差があるので,もっとも近い道路上の位置にマッピングさせる。あるフレームの位置をマッピングした道路位置が属する道路区間が,その前のフレームの位置をマッピングした道路位置が属する区間と異なる場合には,そのフレーム間に区切り位置あると判断できるので,そのフレーム位置で映像を分割する。このような処理により,映像分割を実施することがきる。 10A and 10B, the road map data of the target area is stored in advance, and the image of each frame in the video is displayed. Search for road location data. At this time, generally, there is an error in the position acquired by the GPS, so that it is mapped to the closest position on the road. If the road section to which the road position mapping the position of a frame belongs is different from the section to which the road position mapping the previous frame position belongs, it can be determined that there is a separation position between the frames. Divide the video with. Such a process as possible out to carry out the image segmentation.

以下の実施例の説明では,区切りの区間の距離を数十メートル程度と考え,それぞれ区切られた区間は,起点と終点の緯度・経度で唯一に指定できる(起点終点間に迂回路がない)という条件が成り立つという想定で説明する。以上のような条件が成立しない場合にも,道路ID番号を付与するとか,中間経由地の緯度・経度を付与するとかいう方法により,本発明を実施することができる。   In the following description of the embodiment, the distance between the divided sections is assumed to be about several tens of meters, and each divided section can be uniquely specified by the latitude and longitude of the start point and the end point (there is no detour between the start point and the end point) The explanation is based on the assumption that the above condition holds. Even when the above conditions are not satisfied, the present invention can be implemented by a method of giving a road ID number or giving a latitude / longitude of an intermediate waypoint.

さらに,区間ごと(一地点ごとに区切る場合には映像内の画像ごと)に下記の処理(S121〜S126)を繰り返す。まず,ステップS121では,対象の区間と同一のデータが,画像データ蓄積部23内に存在するかどうかを検索する。これは,DBMSの機能により,起点と終点の緯度・経度を条件として検索することにより実現できる。ステップS122の判定により,もし,条件に合致するデータがない場合には,ステップS123へ進み,新たな分割映像の区間データを追加登録して,繰り返し処理に戻る。追加登録もDBMSの機能を用いて実現できる。   Furthermore, the following processing (S121 to S126) is repeated for each section (for each image in the case of dividing each spot). First, in step S121, it is searched whether or not the same data as the target section exists in the image data storage unit 23. This can be realized by searching on the basis of the latitude and longitude of the start point and end point by the function of the DBMS. If it is determined in step S122 that there is no data matching the condition, the process proceeds to step S123, where new segment video segment data is additionally registered, and the process returns to the iterative process. Additional registration can also be realized using the DBMS function.

条件に合致するデータが存在する場合には,ステップS124へ進み,蓄積データと新たなデータのそれぞれに対して,有効度を計算する。新たなデータの有効度をA,蓄積データの有効度をBとして説明する。   If there is data that matches the condition, the process proceeds to step S124, and the effectiveness is calculated for each of the accumulated data and new data. A description will be given assuming that the validity of new data is A and the validity of stored data is B.

有効度の計算方法の一例を図11に示す。この例では,フレームレートが高い,解像度が高い,明るい(悪天候や夕暮れ時等の撮影ではない),コントラストがはっきりしている,最近撮影された,といった条件ほど有効であるとし,これらの数値に加重係数を掛けた上で合計するといった比較的単純な式により計算することとしている。   An example of a method for calculating the effectiveness is shown in FIG. In this example, conditions such as high frame rate, high resolution, bright (not shooting in bad weather, dusk, etc.), clear contrast, and recently taken are considered to be effective. The calculation is made by a relatively simple formula such as multiplying by a weighting factor and summing.

ステップS30では,区間映像のフレーム数(またはフレームレート)を有効度Afrとする。ステップS31では,区間映像の解像度をAres とする。区間映像の解像度は,1フレームの縦ピクセル数×横ピクセル数である。次に,ステップS32では,明るさに着目した有効度Abrを,区間映像の各フレームの各ピクセルの明度の平均値として算出する。 In step S30, the number of frames (or frame rate) of the section video is set as the effectiveness A fr . In step S31, the resolution of the section video is Ares . The resolution of the section video is the number of vertical pixels × the number of horizontal pixels in one frame. Next, in step S32, the effectiveness Abr focusing on the brightness is calculated as the average value of the brightness of each pixel of each frame of the section video.

br=Σf Σx Σy Y(f,x,y)/(フレーム数×縦ピクセル数×横ピクセル数)である。ただし,NTSC系加重平均法と呼ばれる下記の式で,画素のRGB値から明度Yを計算する。すなわち,fフレーム目の(x,y)画素の明度をY(f,x,y)としたとき,Y(f,x,y)を次の式で算出する。 A A br = Σ f Σ x Σ y Y (f, x, y) / (× number of vertical pixels × number of horizontal pixels the number of frames). However, the brightness Y is calculated from the RGB values of the pixels using the following formula called NTSC weighted average method. That is, when the brightness of the (x, y) pixel in the f frame is Y (f, x, y), Y (f, x, y) is calculated by the following equation.

Y(f,x,y)=0.298912*R(f,x,y)+0.586611*G(f,x,y)+0.114478*B(f,x,y)
次のステップS33では,区間映像の各フレームの明度差の平均値を,コントラストに着目した有効度Acon として算出する。
Y (f, x, y) = 0.298912 * R (f, x, y) + 0.586611 * G (f, x, y) + 0.114478 * B (f, x, y)
In the next step S33, the average value of the brightness difference of each frame of the section video is calculated as the effectiveness A con focusing on the contrast.

con = Σf {Ymax (f)−Ymin (f)}/フレーム数
として算出される。ただし,Ymax (f)はフレームfにおける明度の最大値,Ymin (f)はフレームfにおける明度の最小値である。
A con = Σ f {Y max (f) −Y min (f)} / number of frames. However, Y max (f) is the maximum value of lightness in frame f, and Y min (f) is the minimum value of lightness in frame f.

ステップS34では,ある基準日時からの経過秒数を,撮影日時に関する有効度Atiとする。なお,基準日時は最も古い撮影日時より古い時点であれば,いつでもよい。 In step S34, the number of seconds elapsed from a certain reference date and time is set as the effectiveness A ti for the shooting date and time. The reference date and time may be any time as long as it is older than the oldest shooting date and time.

最後に,ステップS35では,以上を総合した有効度Aを,次式により算出する。   Finally, in step S35, the effectiveness A that combines the above is calculated by the following equation.

A=ΣCi ×Ai
ここで,Ai は,ステップS30〜S34で算出したAfr(フレーム数に着目した有効度),Ares (解像度に着目した有効度),Abr(明るさに着目した有効度),Acon (コントラストに着目した有効度),Ati(撮影日時に着目した有効度)である。また,Ci は,あらかじめ定められた各Ai の評価項目に対する加重係数である。
A = ΣC i × A i
Here, A i is A fr (effectiveness focused on the number of frames), A res (effectiveness focused on the resolution), A br (effectiveness focused on the brightness), A calculated in steps S30 to S34. con (effectiveness focused on contrast) and A ti (effectiveness focused on shooting date). C i is a weighting coefficient for each predetermined evaluation item of A i .

図9のステップS125で,新たな映像データの有効度Aのほうが,蓄積データの有効度Bより高いと評価された場合には,ステップS126へ進み,DBMSの機能を用いて画像データ蓄積部23に蓄積されている蓄積映像を削除し,新たな分割映像を画像データ蓄積部23に登録する。すなわち,画像データ蓄積部23に蓄積されている同一位置の映像データを,新たな映像データに更新する。なお,画像データ蓄積部23に新たな映像データを格納するとき,その有効度Aを蓄積データの有効度Bとして保存しておくようにしてもよい。   If it is determined in step S125 in FIG. 9 that the validity A of the new video data is higher than the validity B of the stored data, the process proceeds to step S126, and the image data storage unit 23 is used using the DBMS function. Is deleted, and a new divided video is registered in the image data storage unit 23. That is, the video data at the same position stored in the image data storage unit 23 is updated to new video data. When new video data is stored in the image data storage unit 23, the validity A may be stored as the validity B of the stored data.

ステップS125の有効度の評価において,蓄積データの有効度Bのほうが高い場合には,新たな映像データは画像データ蓄積部23に登録しないで棄却する。以上のステップS121〜S126を,分割された映像ごとに繰り返す。   If the validity B of the stored data is higher in the evaluation of the effectiveness in step S125, the new video data is rejected without being registered in the image data storage unit 23. The above steps S121 to S126 are repeated for each divided video.

図11に示したような有効度の算出方法で用いる計算式は,本発明の具体的な使用目的に応じて,適当な式に変更して実施することもできる。以下に,その具体的な変更例を挙げる。   The calculation formula used in the effectiveness calculation method as shown in FIG. 11 can be changed to an appropriate formula according to the specific use purpose of the present invention. The following are specific examples of changes.

例えば,明るさに関しては,図11の例では,明るいほど「Abr」の値が大きくなるようにしているが,明る過ぎる画像が必ずしも望ましくない場合もあり得る。これを考慮して,理想とする期待値との差を「Abr」の値として計算してもよい。なお,この場合には,期待値に近いほど数値が小さくなるため,加重係数としては,マイナス値を取るようにすることで,期待値に近いほど有効度が高く評価されるようにできる。すなわち,
br=区間映像の各フレームの各ピクセルの明度の期待値からのずれの平均値
=Σf Σx Σy abs(Y(f,x,y)−Y0 )/(フレーム数×縦ピクセル数 ×横ピクセル数)
である。ただし,abs()は,絶対値を求める関数,Y0 は理想とする明度の値である。
For example, with regard to brightness, in the example of FIG. 11, the value of “A br ” increases as the brightness increases, but an image that is too bright may not always be desirable. Considering this, the difference from the ideal expected value may be calculated as the value of “A br ”. In this case, since the numerical value becomes smaller as it is closer to the expected value, by taking a negative value as the weighting coefficient, the closer to the expected value, the higher the effectiveness can be evaluated. That is,
A br = interval deviation of the mean value from the expected value of the brightness of each pixel of each frame of the video = Σ f Σ x Σ y abs (Y (f, x, y) -Y 0) / ( number of frames × vertical pixels Number x number of horizontal pixels)
It is. Here, abs () is a function for obtaining an absolute value, and Y 0 is an ideal brightness value.

また,コントラストについては,図11の例では,最大値と最小値のみを利用して評価するため,ごく限られた画素のみが極端に明るかったり極端に暗かったりすることがあり,不適切に「Acon 」の値が高く評価されることがあり得る。そこで,画素全体の明度を統計処理することにより,明度の分布の指標となる標準偏差を算出することができるので,その指標を「Acon 」の値として利用する実施も好適である。すなわち,
con =区間映像の各フレームの明度の標準偏差の平均値
=Σf {σ(f)}/フレーム数
である。σ(f)は,フレームfにおける明度の分布Y(f,x,y)を統計処理して求めた標準偏差である。この値は,偏りが少ない(つまり明度が満遍なく分散している)ほど大きな数値となるため,有効度が高くなる。
Further, since the contrast is evaluated using only the maximum value and the minimum value in the example of FIG. 11, only a very limited number of pixels may be extremely bright or extremely dark. The value of “A con ” may be highly evaluated. Therefore, by performing statistical processing on the brightness of the entire pixel, it is possible to calculate a standard deviation that serves as an index of the distribution of brightness. Therefore, it is also preferable to use the index as the value of “A con ”. That is,
A con = average value standard value of brightness of each frame of the section video = Σ f {σ (f)} / number of frames
It is. σ (f) is a standard deviation obtained by statistically processing the lightness distribution Y (f, x, y) in the frame f. Since this value becomes larger as the bias is smaller (that is, the lightness is evenly distributed), the effectiveness becomes higher.

さらに,これらの値は,その有効度合いに応じて,そのままの値で使用するのではなく数学的な計算を施してから求めることもできる。例えば,撮影日時についての有効度「Ati」の値の算出においては,現在日時との差を,1ヶ月ごとに値が半減するような計算式により算出することもできる。 Furthermore, these values can be obtained after performing mathematical calculations instead of using them as they are, depending on their effectiveness. For example, in calculating the value of the effectiveness “A ti ” for the shooting date and time, the difference from the current date and time can be calculated by a calculation formula that halves the value every month.

ti=(1/2)**(現在日時−撮影日時)
なお,ここで**は巾乗を表し,日時は月単位に換算して算出するものとする。
A ti = (1/2) ** (current date and time-shooting date and time)
Here, ** represents the power, and the date / time is calculated in terms of months.

つまり,非常に新しい画像と比較して,有効度が1ヶ月前の画像は1/2,2ヶ月前の画像は1/4,3ヶ月前の画像は1/8となるような算出式を用いてもよく,これは『現在の画像か1ヶ月前の画像か』の差は大きいが,『1年(12ヶ月)前の画像か1年1ヶ月(13ヶ月)前の画像か』の差はあまり影響がないというような場合には,有用な値となる。   In other words, compared with a very new image, the calculation formula is such that the effectiveness is 1/2 for an image 1 month ago, 1/4 for an image 2 months ago, and 1/8 for an image 3 months ago. It may be used, but this is a big difference between “current image or image 1 month ago”, but “image 1 year (12 months) ago or image 1 year 1 month (13 months) ago” This is a useful value if the difference has little effect.

また,上記の例では,「Abr」の値や「Acon 」の値などは,映像を構成する全画像をもとに算出する方法を述べているが,車載カメラからの画像では連続的に撮影されるため,隣接する画像間において大きな値の変化が少ないと考えられる。そこで計算量を削減するために,次に述べる方法1〜方法3などのように,一部の画像のみを対象として算出するような実施も好適である。
〔方法1〕先頭,最終などの特定のフレーム番号の画像の情報のみを使用する。
〔方法2〕評価時にランダムに指定されたフレーム番号の画像の情報のみを使用する。
〔方法3〕フレームレートを下げて(例えば30fpsの映像に対して,30フレームずつ飛ばすことによって1fpsとする)から平均値を計算する。
In the above example, the value of “A br ”, the value of “A con ”, and the like are described based on all the images constituting the video. Therefore, it is considered that there is little change in the large value between adjacent images. Therefore, in order to reduce the amount of calculation, it is also preferable to perform calculation for only a part of images, such as method 1 to method 3 described below.
[Method 1] Only information of an image having a specific frame number such as the beginning or end is used.
[Method 2] Only information of an image having a frame number randomly specified at the time of evaluation is used.
[Method 3] The average value is calculated after the frame rate is lowered (for example, 30 fps video is skipped by 30 frames to obtain 1 fps).

他に有効度に基づいて画像データを更新するかどうかを決定する方法として,次のような方法を用いる実施も好適である。   As another method for determining whether or not to update the image data based on the effectiveness, it is also preferable to use the following method.

(1)保存する画像データを有効度の最も高い1つだけにするのではなく,最大n個としておき,新たな画像に対して有効度が,既存の有効度のn番目より大きければ,新たな画像を追加して,n番目(既存のうちもっとも有効度の低いもの)を削除する。これにより,同一の位置について種々の環境条件に応じたn個の画像データが保存されることになり,利用者が必要とする適切な画像データが上書きされてしまう確率が小さくなる。   (1) The image data to be stored is not limited to the one with the highest validity, but is set to a maximum of n, and if the validity for a new image is greater than the nth existing validity, a new New image is added and the nth (the least effective one among existing ones) is deleted. As a result, n pieces of image data corresponding to various environmental conditions are stored at the same position, and the probability that appropriate image data required by the user is overwritten is reduced.

(2)上記の例では,位置情報を起点と終点の緯度・経度としているので,実際には,同じ区間でも上下は別々になる。これをわざと上下同一視するようにして,上り下りで有効度の高いもの1つだけにする。こうすることにより,記憶装置に蓄積する画像データの蓄積量をさらに小さくすることができる。   (2) In the above example, since the position information is the latitude and longitude of the starting point and the ending point, the upper and lower sides are actually different even in the same section. This is intentionally identified as the top and bottom, so that only one with high effectiveness is obtained in the up and down directions. By doing so, the amount of image data stored in the storage device can be further reduced.

(3)画像データに,位置情報の他に撮影時刻の時刻情報も付加し,蓄積する画像データを位置情報で分けるだけでなく,時間帯で分ける実施も可能である。つまりデータ上に,「時間帯」というカラムを設け,それもキーとすることにより,「昼」と「夜」を別々に蓄積するというように実施することができる。同様に,平日/休日で分けることや,特定の期日や季節で分けるなど,時間的に異なる状況があり得る場合に,それらを時間情報のキーを用いて別々に蓄積し管理するような実施も可能である。   (3) It is possible to add not only position information but also time information of photographing time to the image data and divide the stored image data not only by position information but also by time zone. In other words, by providing a column “time zone” on the data and using it as a key, “day” and “night” can be stored separately. Similarly, when there may be different situations in time, such as dividing by weekdays / holidays or by specific due dates or seasons, implementation is also possible to store and manage them separately using the key of time information. Is possible.

(4)一度計算した有効度の評価値を画像データ蓄積部23に保存しておくことにより,新たなデータが送信されてきたときに,既存データの有効度を計算し直すのではなく,その保存されたデータを使うことができる。   (4) By saving the evaluation value of the validity calculated once in the image data storage unit 23, when new data is transmitted, the validity of the existing data is not recalculated. You can use saved data.

次に,データ処理サーバ20が,撮影端末10から受信した画像データからその画像データ内のオブジェクトを認識するデータ認識部24を用い,認識結果について認識データ蓄積部25に蓄積する実施例について説明する。   Next, an embodiment in which the data processing server 20 uses the data recognition unit 24 that recognizes an object in the image data from the image data received from the photographing terminal 10 and accumulates the recognition result in the recognition data accumulation unit 25 will be described. .

図12は,本実施例におけるデータ評価部22の処理フローチャートである。前述した図9の処理フローチャートと全体的な処理の概要は同様である。ただし,本実施例では,ステップS224における有効度の算出において,データ認識部24による認識結果を評価値として用いる点が異なる。以下では,この違い部分について詳述する。   FIG. 12 is a processing flowchart of the data evaluation unit 22 in this embodiment. The process flowchart of FIG. 9 and the outline of the overall process are the same. However, the present embodiment is different in that the recognition result by the data recognition unit 24 is used as the evaluation value in the calculation of the effectiveness in step S224. Below, this difference is explained in detail.

画像データあるいはその連続した画像列からなる映像データから特徴量を抽出して,有効な認識を行う技術は多く考案されている(特許文献2,特許文献3,非特許文献1など)。これらの技術を用いて,画像データを入力すると認識結果を出力するソフトウェアライブラリを構成することは可能であり,本実施例におけるデータ認識部24は,このソフトウェアライブラリを用いて実施される形態とすることができる。具体的には次のように実現することができる。   Many techniques have been devised that extract feature values from image data or video data composed of continuous image sequences and perform effective recognition (Patent Document 2, Patent Document 3, Non-Patent Document 1, etc.). Using these techniques, it is possible to configure a software library that outputs a recognition result when image data is input, and the data recognition unit 24 in this embodiment is implemented using this software library. be able to. Specifically, it can be realized as follows.

特許文献2によれば,映像における隣接フレーム間において,画像全体の類似度による全体変化量と局所的な類似度による局所集合変化量という2種類の特徴量を求めることによって,手ぶれと急激なカメラワークを検出することが可能となる。車載カメラからの映像の場合,車の発進・停止時や障害物を乗り越える際の揺れ,あるいはカメラ設置の不備による画像の揺れが「手ぶれ」に相当すると考えられる。これにより,手ぶれ区間が,元となる映像区間中に占める割合(%)を計算できる。この値を100%から引くことで,対象映像区間中の非手ぶれ区間率(つまり有効な区間の割合)を算出することができる。特許文献2の方法は,計算機上のソフトウェアによって実現可能であるので,映像データを入力として,この非手ぶれ区間率を出力するソフトウェアライブラリの構築は可能である。   According to Patent Document 2, camera shake and abrupt camera are obtained by obtaining two types of feature amounts, that is, an overall change amount due to the similarity of the entire image and a local set change amount due to the local similarity between adjacent frames in the video. The workpiece can be detected. In the case of video from an in-vehicle camera, shaking when starting or stopping the vehicle, getting over obstacles, or shaking due to inadequate camera installation is considered to be equivalent to “camera shake”. As a result, it is possible to calculate the ratio (%) of the camera shake section in the original video section. By subtracting this value from 100%, it is possible to calculate the non-blurring segment rate (that is, the proportion of valid segments) in the target video segment. Since the method of Patent Document 2 can be realized by software on a computer, it is possible to construct a software library that receives video data as an input and outputs this non-shake interval ratio.

特許文献3によれば,あらかじめ撮影された画像(登録用画像)から特徴点を抽出して学習マップを用意しておき,それを入力画像(認識用画像)から抽出された特徴点を,ずらしマッチング処理を行うことにより探索し,画像認識を行うことができる。そのため,あらかじめ交通標識や特定の形状の看板(コンビニエンスストアやレストラン等のロゴ看板)等のオブジェクトを登録用画像として用意しておくことにより,これらのオブジェクトが認識用画像中に存在するか否か,存在する場合には画像上のどの位置にあるかを算出することが可能となる。   According to Patent Document 3, a feature map is prepared by extracting a feature point from a previously captured image (registration image), and the feature point extracted from the input image (recognition image) is shifted. Searching and image recognition can be performed by performing matching processing. Therefore, by preparing objects such as traffic signs and signboards of specific shapes (convenience stores, restaurants, etc.) as registration images in advance, whether these objects exist in the recognition image or not. If it exists, it is possible to calculate the position on the image.

図13は,データ認識部24の処理フローチャートである。データ認識部24は,認識用の位置情報付き映像データ60(=連続する画像データ)を入力すると,繰り返し処理によって画像データを1フレームずつ取り出して各フレームにどのオブジェクトがどの位置にあるかを判定する。そのため,まずステップS50において,位置情報付き映像データ60をフレームごとの画像データに分離する。次に,ステップS51では,前述した特許文献2,特許文献3,非特許文献1などに記載された技術を用いて画像認識を行い,認識のための登録用画像として用意されたオブジェクト(認識対象物)があれば,それを認識結果とする。ステップS52では,認識結果をメモリ領域上の認識結果テーブル61に保存する。   FIG. 13 is a process flowchart of the data recognition unit 24. When the data recognition unit 24 receives the video data 60 with position information for recognition (= continuous image data), the image recognition unit 24 extracts image data frame by frame by iterative processing and determines which object is in which position in each frame. To do. Therefore, first, in step S50, the video data 60 with position information is separated into image data for each frame. Next, in step S51, image recognition is performed using the techniques described in Patent Document 2, Patent Document 3, Non-Patent Document 1, and the like described above, and an object (a recognition target) prepared as a registration image for recognition. If there is a thing), that is the recognition result. In step S52, the recognition result is stored in the recognition result table 61 in the memory area.

図14(A)は,認識結果テーブル61の例を示している。ここでは,道路標識を認識対象のオブジェクトとしている。認識結果テーブル61は,図14(A)に示すように,フレーム番号と,認識されたオブジェクト種別(またはオブジェクト名など),認識されたオブジェクトのフレーム内の位置を示すオブジェクト位置,そのオブジェクトの縦横のサイズを示す大きさなどの情報を保持する。   FIG. 14A shows an example of the recognition result table 61. Here, a road sign is an object to be recognized. As shown in FIG. 14A, the recognition result table 61 includes a frame number, a recognized object type (or object name, etc.), an object position indicating the position of the recognized object in the frame, and the vertical and horizontal directions of the object. Information such as the size indicating the size of the file is stored.

ステップS53では,最終フレームまで認識が終了したかどうかを判定し,最終フレームまで処理していなければ,ステップS50へ戻り,同様にフレームごとの画像認識を繰り返す。   In step S53, it is determined whether or not the recognition has been completed up to the final frame. If the processing has not been completed up to the final frame, the process returns to step S50, and image recognition for each frame is repeated.

最終フレームまで認識が終了したならば,次にステップS54において,これまでの認識結果のうち不要となるものの条件に合致するかどうかを判定する。ここでは,例えば次のような条件がすべて満たされたものを,不要な認識結果と判断する。
〔条件1〕連続した隣接フレームに同じオブジェクト種別がある。
〔条件2〕オブジェクト位置の差が所定の閾値以下である。
〔条件3〕条件1および条件2を満たす対象の中で大きさが最大でない。
If the recognition has been completed up to the last frame, it is next determined in step S54 whether or not the conditions of unnecessary recognition results so far are met. Here, for example, a case where all of the following conditions are satisfied is determined as an unnecessary recognition result.
[Condition 1] Contiguous adjacent frames have the same object type.
[Condition 2] The difference in object positions is less than or equal to a predetermined threshold value.
[Condition 3] The size is not the largest among the objects satisfying Condition 1 and Condition 2.

認識結果テーブル61のレコードにおいて,以上の条件1〜3がすべて満たされれば,ステップS55へ進み,そのレコードを認識結果テーブル61から削除する。この処理により,例えば図14(A)に示す認識結果テーブル61において,第N−1フレームの「止まれ」のレコード,第Nフレームと第N+1フレームの「右折禁止」のレコードが削除されることになる。   If all of the above conditions 1 to 3 are satisfied in the record of the recognition result table 61, the process proceeds to step S55, and the record is deleted from the recognition result table 61. By this processing, for example, in the recognition result table 61 shown in FIG. 14A, the “stop” record of the (N−1) th frame and the “no right turn” record of the Nth and (N + 1) th frames are deleted. Become.

ステップS56において,認識結果テーブル61の最終レコードまでの削除条件のチェックを行ったかどうかを判定し,未チェックのレコードがあれは,同様にステップS55に戻って処理を繰り返す。すべてチェックしたならば,ステップS57へ進む。   In step S56, it is determined whether or not the deletion condition up to the last record in the recognition result table 61 has been checked. If there is an unchecked record, the process returns to step S55 and the process is repeated. If all are checked, the process proceeds to step S57.

ステップS57では,認識結果テーブル61に残った各レコードのフレーム番号を,映像データに付加された位置情報をもとに,緯度・経度の情報に変換し,結果をオブジェクト認識結果62として出力する。図14(B)は,その出力されたオブジェクト認識結果62の例を示している。このオブジェクト認識結果62は,認識データ蓄積部25に蓄積される。   In step S57, the frame number of each record remaining in the recognition result table 61 is converted into latitude / longitude information based on the position information added to the video data, and the result is output as the object recognition result 62. FIG. 14B shows an example of the output object recognition result 62. This object recognition result 62 is stored in the recognition data storage unit 25.

上記ステップS54,S55の処理について,具体例に従って,さらに詳しく説明する。   The processes of steps S54 and S55 will be described in more detail according to a specific example.

図15は,隣接フレームに移る同一オブジェクトの例を示している。図中のRが「右折禁止標識」として認識された領域を示している。図15に示すように,車載カメラからの映像の場合,隣接する複数のフレームで,同一の標識等が映っていることが一般的なため,隣接する複数のフレームで同じオブジェクトの認識結果が画像上近接した位置として出力される。   FIG. 15 shows an example of the same object moving to an adjacent frame. R in the figure indicates a region recognized as a “right turn prohibition sign”. As shown in FIG. 15, in the case of a video from an in-vehicle camera, since the same sign or the like is generally shown in a plurality of adjacent frames, the recognition result of the same object is displayed in the plurality of adjacent frames. It is output as a position close to the top.

このように,隣接フレーム間で「同一種のオブジェクトでありその画像上の位置の差がある閾値以下」という条件のオブジェクトに対しては,もっとも大きく撮影されている出力結果,すなわち認識結果の画像上の大きさが最大な出力結果を残して,他のフレームにおける認識結果は削除する。一般には,前方に設置された車載カメラの場合,走行に従ってオブジェクトがだんだん大きくなり,最後はフレームアウトしていくため,オブジェクトが撮影されている最終フレームの認識結果が残ることになる。   As described above, for the object having the condition that “the same kind of object and the difference in position on the image is equal to or less than a threshold value” between adjacent frames, the output result captured most greatly, that is, the image of the recognition result. The recognition result in other frames is deleted, leaving the output result having the maximum size. In general, in the case of an in-vehicle camera installed in the front, the object gradually increases as the vehicle travels, and the frame is finally out of the frame, so that the recognition result of the last frame in which the object is photographed remains.

本実施例においては,映像データには緯度・経度といった位置情報が付与されているため,残ったフレーム番号をその位置情報に直すことにより,認識された各オブジェクトの位置(正確に言うと,道路上,そのオブジェクトがもっとも大きく見える位置)が取得できる。このようにして,入力された位置情報付きの映像データに対して,その映像から抽出できる単数または複数のオブジェクトが,そのオブジェクトの位置(正確に言うと,道路上,そのオブジェクトがもっとも大きく見える位置)データと共に出力される。   In this embodiment, since position information such as latitude and longitude is given to the video data, the position of each recognized object (to be precise, road Above, the position where the object looks the largest). In this way, for the input video data with position information, the object or objects that can be extracted from the video is the position of the object (more precisely, the position where the object appears to be the largest on the road). ) Output with data.

また,上記ステップS51における画像認識において,非特許文献1に記載の方法によれば,指定された文字列が含まれる画像の検索を行うことが可能であり,この方法を使うことによって,地名等の特定の文字列が画像上に存在するか否か,存在する場合には画像上のどの位置にあるか,を算出することが可能となる。このため,入力された位置情報付き映像データ60に対して,その映像から抽出できる単数または複数の地名等の文字列が,その文字列の位置(正確に言うと,道路上,その文字列がもっとも大きく見える位置)データと共に出力されるソフトウェアライブラリを構築することができ,そのソフトウェアライブラリによって,データ認識部24を構成することができる。   Further, in the image recognition in step S51, according to the method described in Non-Patent Document 1, it is possible to search for an image including a designated character string. It is possible to calculate whether or not a specific character string is present on the image, and if so, in which position it is located on the image. Therefore, for the input video data 60 with position information, the character string such as one or more place names that can be extracted from the video is changed to the position of the character string (more precisely, the character string on the road A software library that is output together with the most visible position) data can be constructed, and the data recognition unit 24 can be configured by the software library.

図16は,認識データ蓄積部25の構成例を示している。認識データ蓄積部25は,撮影された画像の位置を示す緯度経度,オブジェクト種別,画像内のオブジェクト位置,オブジェクトの大きさなどの情報を管理するデータべースマネージメントシステム(DBMS)によって構成される。   FIG. 16 shows a configuration example of the recognition data storage unit 25. The recognition data storage unit 25 is configured by a database management system (DBMS) that manages information such as latitude and longitude indicating the position of a captured image, object type, object position in the image, and object size. .

図17には,前述したデータ認識部24の認識結果を用いたデータ評価部22における有効度算出処理の一例を示している。   FIG. 17 shows an example of the effectiveness calculation process in the data evaluation unit 22 using the recognition result of the data recognition unit 24 described above.

まず,ステップS40〜S42により,映像データより取得できる評価値を求める。ステップS40では,区間映像のフレーム数を,フレーム数に関する有効度Afrとする。ステップS41では,区間映像の解像度,すなわち縦ピクセル数×横ピクセルを,解像度に関する有効度Ares に設定する。同様に,ステップS42では,図11で説明したような各種の有効度Ai を算出する。 First, at steps S40 to S42, an evaluation value that can be acquired from the video data is obtained. In step S40, the number of frames of the section video is set as the effectiveness A fr related to the number of frames. In step S41, the resolution of the section video, that is, the number of vertical pixels × the horizontal pixel is set as the resolution effectiveness Ares . Similarly, in step S42, various effectiveness A i as described in FIG. 11 is calculated.

続いて,ステップS43,S44では,データ認識部24を利用して有効度の評価値を求める。まず,ステップS43では,データ認識部24へカメラワークの認識を依頼し,データ認識部24では,特許文献2に記載されているようなカメラワーク認識技術を用いてカメラワークを検出し,その検出したカメラワークの情報を,データ評価部22に通知する。この結果をもとに,データ評価部22では,カメラワーク安定度に関する有効度Acwを,手ぶれ区間のない区間の割合(非手ぶれ区間率)から算出する。Acwは,次式から算出されることになる。 Subsequently, in steps S43 and S44, an evaluation value of the effectiveness is obtained using the data recognition unit 24. First, in step S43, the data recognition unit 24 is requested to recognize the camera work, and the data recognition unit 24 detects the camera work using the camera work recognition technology described in Patent Document 2, and detects the detection. The data evaluation unit 22 is notified of the information of the camera work performed. Based on this result, the data evaluation unit 22 calculates the effectiveness A cw related to the camera work stability from the ratio of the sections without the camera shake section (non-shake section ratio). A cw is calculated from the following equation.

cw=100−(手ぶれ区間が区間映像に占める%)
次に,ステップS44では,標識・看板等の認識をデータ認識部24に要求し,その認識結果をもとに,認識結果に関する有効度Arec を算出する。データ認識部24では,上述した特許文献3に記載されているようなオブジェクト認識技術や,非特許文献1に記載されているような文字認識技術を用いて,オブジェクト認識や文字認識を行い,その認識結果をデータ評価部22に通知する。データ評価部22では,画像の位置情報から認識データ蓄積部25に蓄積されている既存の認識結果を検索し,一致した認識結果の個数を算出して,一致した認識結果の個数を認識度に関する有効度Arec とする。
A cw = 100 − (% of the motion picture segment is in the segment video)
Next, in step S44, the data recognition unit 24 is requested to recognize signs, signboards, etc., and based on the recognition result, the effectiveness A rec regarding the recognition result is calculated. The data recognition unit 24 performs object recognition and character recognition using the object recognition technology described in Patent Document 3 and the character recognition technology described in Non-Patent Document 1, and The recognition result is notified to the data evaluation unit 22. The data evaluation unit 22 searches the existing recognition results stored in the recognition data storage unit 25 from the position information of the image, calculates the number of matching recognition results, and determines the number of matching recognition results regarding the recognition level. The effectiveness is Arec .

すなわち,データ認識部24では,位置情報付き映像データから前述した認識処理により,標識等のオブジェクトや文字の認識結果を求める。このような認識結果を,やはりDBMSから構成される認識データ蓄積部25に,「どの位置(緯度・経度)にどのような認識データが画像上どのあたりの位置に存在していたか」を保存しておく(図14(B)参照)。データ評価部22から新たなデータが送信された場合には,その新たなデータ上に「同じような位置(=ある閾値範囲内で同一位置)に同じ認識データが存在していたか」をデータ認識部24が検査し,同じ認識ができた個数,すなわち一致した認識結果を有効度Arec として算出する。 That is, the data recognition unit 24 obtains recognition results of objects such as signs and characters from the video data with position information by the above-described recognition processing. Such recognition results are stored in the recognition data storage unit 25, which is also composed of DBMS, “what kind of recognition data existed in which position (latitude / longitude) and in what position on the image”. (See FIG. 14B). When new data is transmitted from the data evaluation unit 22, data recognition is performed on whether the same recognition data exists at the same position (= the same position within a certain threshold range) on the new data. The unit 24 inspects and calculates the number of the same recognition, that is, the matching recognition result as the effectiveness Arec .

一般に,計算機による認識が多く成功するためには,画像の品質が高い必要がある。これは逆に言うと,認識が成功する場合の画像の有効度が高いということである。そのため,この値を有効度の評価式の1つとして利用することとしている。なお,認識成功率の高い画像を利用してもなお認識されなくなった(あるいは新たに認識されるようになった)店舗看板,案内標識といったオブジェクトは,実際に街中の経年変化により発生した差異と考えられるので,この認識データ蓄積部25には,このようなオブジェクトに関する最新の情報も保持されることになる。   In general, high image quality is required for many computer recognitions to succeed. In other words, the effectiveness of the image when recognition is successful is high. Therefore, this value is used as one of the evaluation formulas for effectiveness. It should be noted that objects such as store signboards and information signs that are still not recognized (or newly recognized) even when using images with a high recognition success rate are actually differences caused by secular changes in the city. Therefore, the recognition data storage unit 25 also holds the latest information on such objects.

その後,ステップS45では,トータルの有効度Aを,次式により算出する。   Thereafter, in step S45, the total effectiveness A is calculated by the following equation.

A=ΣCi ×Ai
ただし,Ci は,有効度Afr,Ares ,…,Acw,Arec のそれぞれの評価項目に対するあらかじめ定められた加重係数Cfr,Cres ,…,Ccw,Crec である。
A = ΣC i × A i
However, C i is the effective index A fr, A res, ..., A cw, A respective evaluation predetermined weighting factor C fr for items of rec, C res, ..., a C cw, C rec.

以上の画像蓄積装置が行う処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。   The processing performed by the above image storage device can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network.

本発明の実施の形態に係る全体構成例を示す図である。It is a figure which shows the example of whole structure concerning embodiment of this invention. 撮影端末の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography terminal. 画像データ管理テーブルの例を示す図である。It is a figure which shows the example of an image data management table. 撮影端末の他の構成例を示す図である。It is a figure which shows the other structural example of an imaging | photography terminal. データ中継器の構成例を示す図である。It is a figure which shows the structural example of a data repeater. データ処理サーバの構成例を示す図である。It is a figure which shows the structural example of a data processing server. 画像データ蓄積部の構成例を示す図である。It is a figure which shows the structural example of an image data storage part. サーバデータ受信部の処理フローチャートである。It is a process flowchart of a server data receiving part. データ評価部の処理フローチャートである。It is a processing flowchart of a data evaluation part. 単位映像区間の説明図である。It is explanatory drawing of a unit video area. 有効度の計算方法の一例を示す図である。It is a figure which shows an example of the calculation method of effectiveness. 他の実施例におけるデータ評価部の処理フローチャートである。It is a process flowchart of the data evaluation part in another Example. データ認識部の処理フローチャートである。It is a process flowchart of a data recognition part. 認識結果テーブルとオブジェクト認識結果の例を示す図である。It is a figure which shows the example of a recognition result table and an object recognition result. 隣接フレームに移る同一オブジェクトの例を示す図である。It is a figure which shows the example of the same object which moves to an adjacent frame. 認識データ蓄積部の構成例を示す図である。It is a figure which shows the structural example of a recognition data storage part. データ評価部における有効度算出処理の一例を示す図である。It is a figure which shows an example of the effectiveness calculation process in a data evaluation part.

符号の説明Explanation of symbols

10 撮影端末
11 撮影部
12 位置情報取得部
13 端末蓄積部
14 端末データ送信部
20 データ処理サーバ
21 サーバデータ受信部
22 データ評価部
23 画像データ蓄積部
24 データ認識部
25 認識データ蓄積部
30 データ中継器
31 アクセスポイントデータ受信部
32 アクセスポイントデータ送信部
DESCRIPTION OF SYMBOLS 10 Image | photographing terminal 11 Image | photographing part 12 Position information acquisition part 13 Terminal storage part 14 Terminal data transmission part 20 Data processing server 21 Server data reception part 22 Data evaluation part 23 Image data storage part 24 Data recognition part 25 Recognition data storage part 30 Data relay 31 Access point data receiver 32 Access point data transmitter

Claims (9)

撮影端末で撮影された映像を受信し,蓄積する画像蓄積装置であって,
映像データとその映像データに対応付けられた撮影位置を示す位置データとを含むデータを,前記撮影端末から受信するサーバデータ受信部と,
映像データに対応付けられた位置データを利用して,受信した映像データのフレームの位置をマッピングし,予め区切られた道路区間に対応するように当該映像データを分割して単位映像データを得る手段と,
前記単位映像データと,その単位映像データに対して所定の評価式によって算出されたデータの有効度の値とを蓄積する画像データ蓄積部と,
前記サーバデータ受信部により前記撮影端末からデータを受信したときに,受信したデータから得られる新しい単位映像データごとに,既に同じ道路区間で撮影された単位映像データが前記画像データ蓄積部に蓄積されている場合には,前記新しい単位映像データについて前記所定の評価式に従ってそのデータの有効度の値を算出し,蓄積されているデータの有効度の値との大小比較によって,前記画像データ蓄積部に蓄積されている単位映像データとそのデータの有効度の値とを前記新しい単位映像データとそのデータの有効度の値とで更新するかどうかを決定するデータ評価部とを備える
ことを特徴とする画像蓄積装置。
An image storage device that receives and stores video shot by a shooting terminal,
A server data receiving unit for receiving data including video data and position data indicating a shooting position associated with the video data from the shooting terminal;
Means for mapping the position of the frame of the received video data using the position data associated with the video data, and dividing the video data so as to correspond to the road section divided in advance to obtain unit video data When,
An image data storage unit for storing the unit video data and a value of the validity of the data calculated by a predetermined evaluation formula for the unit video data;
Wherein when data is received from the imaging device by the server data receiver, for each new unit video data obtained from the received data, stored previously in the unit image data is the image data storage section taken at the same road section If the new unit video data , the image data storage unit calculates the value of the validity of the data according to the predetermined evaluation formula, and compares the value with the value of the validity of the stored data. and characterized in that it comprises a unit video data stored to the the value of the effectiveness of the data and the new unit video data and the data evaluation unit that determines whether to update with a value of effectiveness of the data to Image storage device.
請求項1に記載の画像蓄積装置において,
前記データ評価部が用いる評価式は,
前記データの有効度の値が,前記単位映像データのフレーム数が大きいほど大きくなる評価式,もしくは前記単位映像データの解像度が大きいほど大きくなる評価式,もしくは前記単位映像データに含まれるピクセルの明度の平均値が大きいほど大きくなる評価式,もしくは前記単位映像データにおける各フレームの明度差の平均値が大きいほど大きくなる評価式,もしくは撮影日時が新しいほど大きくなる評価式,もしくは所定の方法で算出された蓄積対象の映像区間中の非手ぶれ区間率が大きいほど大きくなる評価式,またはこれらの評価式のうち複数を組み合わせた評価式を含む
ことを特徴とする画像蓄積装置。
The image storage device according to claim 1,
The evaluation formula used by the data evaluation unit is:
The value of the effectiveness of the data, the brightness of the frame number is large enough larger evaluation formula unit video data, or an evaluation formula increases the greater the resolution of the unit video data, or pixels included in the unit image data An evaluation formula that increases as the average value increases, or an evaluation formula that increases as the average value of the brightness difference of each frame in the unit video data increases, or an evaluation formula that increases as the shooting date is new, or a predetermined method. An image storage apparatus comprising: an evaluation formula that increases as the non-blurring section ratio in the stored video segment increases, or an evaluation formula that combines a plurality of these evaluation formulas.
請求項1または請求項2に記載の画像蓄積装置において,
前記撮影端末から受信したデータ内の映像データに写っているオブジェクトを認識するデータ認識部と,
前記データ認識部が認識した認識結果を蓄積する認識データ蓄積部とをさらに備え,
前記データ評価部は,
前記データの有効度の値の算出において前記認識データ蓄積部に蓄積された認識結果を利用し,認識率が大きいほどデータの有効度の値が大きくなる評価式を用いてデータの有効度の値を算出する
ことを特徴とする画像蓄積装置。
The image storage device according to claim 1 or 2,
A data recognition unit for recognizing an object reflected in video data in the data received from the photographing terminal;
A recognition data storage unit for storing a recognition result recognized by the data recognition unit,
The data evaluation unit
In the calculation of the data validity value, the recognition result stored in the recognition data storage unit is used, and the data validity value is calculated using an evaluation formula in which the data validity value increases as the recognition rate increases. An image accumulating device characterized by:
請求項1から請求項3までのいずれか1項に記載の画像蓄積装置において,
前記データ評価部は,
前記画像データ蓄積部に蓄積する同じ道路区間で撮影された単位映像データの個数を最大n個(ただし,nは1以上の整数)とし,前記受信したデータの有効度の値が,前記画像データ蓄積部に蓄積されている同じ道路区間で撮影された単位映像データを含むデータの有効度のn番目に大きい値より大きい場合に,その蓄積されているデータのうち最もデータの有効度の小さいデータを削除して前記受信したデータから得られる単位映像データを前記画像データ蓄積部に保存し,小さい場合に,前記受信したデータから得られる単位映像データを前記画像データ蓄積部に蓄積しないで棄却する
ことを特徴とする画像蓄積装置。
In the image storage device according to any one of claims 1 to 3,
The data evaluation unit
The maximum number of unit video data shot in the same road section stored in the image data storage unit is n (where n is an integer of 1 or more), and the validity value of the received data is the image data. Data having the smallest data validity among the accumulated data when the validity is greater than the nth largest value of the data including unit video data shot in the same road section accumulated in the accumulation unit. The unit video data obtained from the received data is saved in the image data storage unit, and the unit video data obtained from the received data is rejected without being stored in the image data storage unit when the data is small An image storage device characterized by that.
請求項1から請求項4までのいずれか1項に記載の画像蓄積装置において,
前記データ評価部は,
前記画像データ蓄積部に,道路区間ごとの単位映像データを保存するときに,前記道路区間の上り方向と下り方向とを区別しないで同じ道路区間であるか否かを判断する
ことを特徴とする画像蓄積装置。
In the image storage device according to any one of claims 1 to 4,
The data evaluation unit
In the image data storage unit, when storing the unit image data for each road section, characterized by determining whether the same road section without distinguishing between uplink and downlink direction of the road section Image storage device.
請求項1から請求項5までのいずれか1項に記載の画像蓄積装置において,
前記データ評価部は,
異なる時間帯,曜日,期日または期間に撮影された単位映像データについては,別々に前記データの有効度の値の算出およびデータの有効度の値の大小比較を行う
ことを特徴とする画像蓄積装置。
In the image storage device according to any one of claims 1 to 5,
The data evaluation unit
An image storage device characterized in that, for unit video data shot at different time periods, days of the week, due dates, or periods, the validity value of the data is calculated separately and the magnitudes of the validity values of the data are compared separately .
コンピュータを,請求項1から請求項6までのいずれか1項に記載の画像蓄積装置が備える前記サーバデータ受信部,前記画像データ蓄積部および前記データ評価部,または,さらに請求項3に記載の画像蓄積装置が備える前記データ認識部および前記認識データ蓄積部として,機能させるための画像蓄積装置用プログラム。   The computer according to any one of claims 1 to 6, wherein the image data storage device according to any one of claims 1 to 6 includes the server data reception unit, the image data storage unit, and the data evaluation unit, or further according to claim 3. An image storage device program for causing the image storage device to function as the data recognition unit and the recognition data storage unit. 撮影端末と,該撮影端末で撮影された画像を蓄積する画像蓄積装置とを備える画像蓄積システムであって,
前記撮影端末は,
映像を撮影する撮影部と,
撮影時の位置情報を取得する位置取得部と,
前記撮影された映像データと前記取得された位置データとを対応付けて蓄積する端末蓄積部と,
前記端末蓄積部に蓄積されたデータを前記画像蓄積装置へ送信する端末送信部とを備え,
前記画像蓄積装置は,
映像データとその映像データに対応付けられた撮影位置を示す位置データとを含むデータを,前記撮影端末から受信するサーバデータ受信部と,
映像データに対応付けられた位置データを利用して,受信した映像データのフレームの位置をマッピングし,予め区切られた道路区間に対応するように当該映像データを分割して単位映像データを得る手段と,
前記単位映像データと,その単位映像データに対して所定の評価式によって算出されたデータの有効度の値とを蓄積する画像データ蓄積部と,
前記サーバデータ受信部により前記撮影端末からデータを受信したときに,受信したデータから得られる新しい単位映像データごとに,既に同じ道路区間で撮影された単位映像データが前記画像データ蓄積部に蓄積されている場合には,前記新しい単位映像データについて前記所定の評価式に従ってそのデータの有効度の値を算出し,蓄積されているデータの有効度の値との大小比較によって,前記画像データ蓄積部に蓄積されている単位映像データとそのデータの有効度の値とを前記新しい単位映像データとそのデータの有効度の値とで更新するかどうかを決定するデータ評価部とを備える
ことを特徴とする画像蓄積システム。
An image storage system comprising a photographing terminal and an image accumulating device for accumulating images photographed by the photographing terminal,
The photographing terminal is
A shooting section for shooting images ;
A position acquisition unit for acquiring position information at the time of shooting;
A terminal storage unit that stores the captured video data and the acquired position data in association with each other;
A terminal transmission unit for transmitting data stored in the terminal storage unit to the image storage device;
The image storage device includes:
A server data receiving unit for receiving data including video data and position data indicating a shooting position associated with the video data from the shooting terminal;
Means for mapping the position of the frame of the received video data using the position data associated with the video data, and dividing the video data so as to correspond to the road section divided in advance to obtain unit video data When,
An image data storage unit for storing the unit video data and a value of the validity of the data calculated by a predetermined evaluation formula for the unit video data;
Wherein when data is received from the imaging device by the server data receiver, for each new unit video data obtained from the received data, stored previously in the unit image data is the image data storage section taken at the same road section If the new unit video data , the image data storage unit calculates the value of the validity of the data according to the predetermined evaluation formula, and compares the value with the value of the validity of the stored data. and characterized in that it comprises a unit video data stored to the the value of the effectiveness of the data and the new unit video data and the data evaluation unit that determines whether to update with a value of effectiveness of the data to Image storage system.
請求項8に記載の画像蓄積システムにおいて,
前記撮影端末と前記画像蓄積装置との間に,
前記撮影端末からのデータを無線LANインタフェースにより受信するアクセスポイントデータ受信部と,
受信したデータを前記画像蓄積装置に送信するアクセスポイントデータ送信部とからなるデータ中継器を備える
ことを特徴とする画像蓄積システム。
The image storage system according to claim 8,
Between the photographing terminal and the image storage device,
An access point data receiving unit for receiving data from the photographing terminal through a wireless LAN interface;
An image storage system comprising: a data repeater including an access point data transmission unit that transmits received data to the image storage device.
JP2008216121A 2008-08-26 2008-08-26 Image storage device, program for image storage device, and image storage system Expired - Fee Related JP4995787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008216121A JP4995787B2 (en) 2008-08-26 2008-08-26 Image storage device, program for image storage device, and image storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008216121A JP4995787B2 (en) 2008-08-26 2008-08-26 Image storage device, program for image storage device, and image storage system

Publications (2)

Publication Number Publication Date
JP2010055138A JP2010055138A (en) 2010-03-11
JP4995787B2 true JP4995787B2 (en) 2012-08-08

Family

ID=42071036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008216121A Expired - Fee Related JP4995787B2 (en) 2008-08-26 2008-08-26 Image storage device, program for image storage device, and image storage system

Country Status (1)

Country Link
JP (1) JP4995787B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088425A1 (en) 2016-11-10 2018-05-17 日本電信電話株式会社 Image evaluation device, image evaluation method, and image evaluation program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6959024B2 (en) * 2017-03-24 2021-11-02 パイオニア株式会社 Information processing device
JP7059881B2 (en) * 2018-10-04 2022-04-26 トヨタ自動車株式会社 Image processing equipment, image processing methods, and programs

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123348A (en) * 1993-10-28 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> Image pickup device with position measuring mechanism
JP2000047579A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Map data base updating device
JP3469122B2 (en) * 1999-03-10 2003-11-25 日本電信電話株式会社 Video segment classification method and apparatus for editing, and recording medium recording this method
US6819795B1 (en) * 2000-07-07 2004-11-16 Fuji Xerox Co., Ltd. Genetic segmentation method for data, such as image data streams
EP2003611A2 (en) * 2006-03-31 2008-12-17 Olympus Corporation Information presentation system, information presentation terminal, and server
JP2007304738A (en) * 2006-05-10 2007-11-22 Viva Computer Co Ltd Image storage/retrieval system, image storage device and image retrieval device for the system, and program
JP2007328503A (en) * 2006-06-07 2007-12-20 Nec Corp Document information management system and document information management method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088425A1 (en) 2016-11-10 2018-05-17 日本電信電話株式会社 Image evaluation device, image evaluation method, and image evaluation program
US11042771B2 (en) 2016-11-10 2021-06-22 Nippon Telegraph And Telephone Corporation Image evaluation device, image evaluation method, and image evaluation program
EP4002832A1 (en) 2016-11-10 2022-05-25 Nippon Telegraph And Telephone Corporation Image evaluation device, image evaluation method and image evaluation program
US11710226B2 (en) 2016-11-10 2023-07-25 Nippon Telegraph And Telephone Corporation Image evaluation device, image evaluation method, and image evaluation program

Also Published As

Publication number Publication date
JP2010055138A (en) 2010-03-11

Similar Documents

Publication Publication Date Title
US9286545B1 (en) System and method of using images to determine correspondence between locations
US11481991B2 (en) System and method for detecting and transmitting incidents of interest of a roadway to a remote server
US8274571B2 (en) Image zooming using pre-existing imaging information
US8094974B2 (en) Picture data management apparatus and picture data management method
KR101423928B1 (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method.
US9286624B2 (en) System and method of displaying annotations on geographic object surfaces
US10191635B1 (en) System and method of generating a view for a point of interest
US9195987B2 (en) Systems and methods of correlating business information to determine spam, closed businesses, and ranking signals
CN101874195B (en) Map display device, map display method, and imaging device
US9672223B2 (en) Geo photo searching based on current conditions at a location
CN111221012A (en) Method and apparatus for improved location decision based on ambient environment
US8488021B2 (en) Image positioning method, POI tagging method and the apparatus
US20150278878A1 (en) System and method of displaying advertisements
JP2009003415A (en) Method and device for updating map data
US20120259545A1 (en) System and method for providing an electronic representation of a route
JPWO2007116500A1 (en) Information presentation system, information presentation terminal and server
US8373712B2 (en) Method, system and computer-readable recording medium for providing image data
JP4995787B2 (en) Image storage device, program for image storage device, and image storage system
CN103729409A (en) Method and device for generating visual scene information
US20160171004A1 (en) Method and system for improving the location precision of an object taken in a geo-tagged photo
US9201498B2 (en) Information display system, information display apparatus and non-transitory storage medium
JP4685286B2 (en) Information update processing device
US10331733B2 (en) System and method for presenting condition-specific geographic imagery
CN112106135B (en) Information collecting device
JP2019174989A (en) Image compression method and image compression device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees