JP4995787B2 - Image storage device, program for image storage device, and image storage system - Google Patents
Image storage device, program for image storage device, and image storage system Download PDFInfo
- Publication number
- JP4995787B2 JP4995787B2 JP2008216121A JP2008216121A JP4995787B2 JP 4995787 B2 JP4995787 B2 JP 4995787B2 JP 2008216121 A JP2008216121 A JP 2008216121A JP 2008216121 A JP2008216121 A JP 2008216121A JP 4995787 B2 JP4995787 B2 JP 4995787B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- image
- video data
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は,撮影端末で撮影された映像を整理して蓄積する画像蓄積装置に関するものである。 The present invention relates to an image storage device that organizes and stores videos shot by a shooting terminal.
デジタルビデオカメラの小型化・低価格化に伴い,これらのカメラを,自動車をはじめとした移動体に搭載することが一般化してきている。実際にこのようなカメラは,車載カメラとして製品化され市販されている。 As digital video cameras have become smaller and cheaper, it has become common to mount these cameras on mobile objects such as automobiles. In fact, such a camera has been commercialized and marketed as an in-vehicle camera.
デジタルビデオカメラで撮影された映像データ(以下,時間的に連続な画像データを「映像データ」と呼ぶ)は比較的大容量になるが,振動等に強いSDメモリカード等の大容量化に伴い,相当長い時間の映像データをデジタルデータファイルの形式で格納することも可能になっている。 Video data shot by a digital video camera (hereinafter referred to as “video data”) is relatively large in capacity, but with the increase in capacity of SD memory cards that are resistant to vibration, etc. It is also possible to store video data for a considerably long time in the form of a digital data file.
また,GPS(Global Positioning System )の小型化・低価格化に伴い,このような自己位置を特定することができる機器も,自動車をはじめとした移動体に搭載することが一般化してきている。 In addition, along with the downsizing and lowering of the price of GPS (Global Positioning System), it has become common to mount such a device that can identify its own position on a moving body such as an automobile.
一方で,撮影されたデータに対しては,ハードディスク装置(HDD)等の大容量化・低価格化に伴い,やはりデジタルデータファイルの形式で,オフィス・データセンタ等に設置されたパーソナルコンピュータ(PC)やサーバ機器にコピーをして,長時間分の撮影データを蓄積することが可能になっている。 On the other hand, for the captured data, a personal computer (PC) installed in an office / data center or the like in the form of a digital data file in accordance with the increase in capacity and price of a hard disk drive (HDD). ) And server devices, and it is possible to accumulate long-term shooting data.
これらの従来技術により,車載カメラで撮影され,SDメモリカード等に蓄積された映像データを,そのまま撮影者によりサーバ等のHDDへ順次ファイルとしてコピーしていった場合,それだけではそのファイル名等を知らない限り,記録した映像データを有効に利用することができない。 With these conventional technologies, when video data shot with an in-vehicle camera and stored in an SD memory card or the like is copied as it is to a HDD such as a server by a photographer as it is, the file name etc. The recorded video data cannot be used effectively unless you know it.
これに対しては,例えば下記の特許文献1では,GPSから得られた位置情報を画像情報と同期させて記録する方法が考えられており,この方法を用いることにより,車載カメラで撮影された映像データのフレーム番号と,その時点で取得した位置情報とをセットで記録しておくことによって,利用者により指定された緯度・経度等の位置情報から指定された距離範囲内にある映像データの対象フレーム画像を検索するシステムを,容易に構成することができる。なお,フレーム番号は,映像データ中の何番目の画像データかを示す番号であり,フレーム番号が特定されることにより,映像データ内の画像データが特定される。
For this, for example, in
また,画像処理技術の発達により,映像データファイルから直接的に取得できる画素数,フレームレート(映像1秒当たりが何フレームの画像から構成されているかを示す値)や,画素値から簡単に算出できる画像の明るさといった特徴量のほかに,映像内における動き(カメラワーク)を抽出することが可能であり,さらに画像認識によりオブジェクトを検出することも可能である。 In addition, with the development of image processing technology, the number of pixels that can be obtained directly from the video data file, the frame rate (a value indicating how many frames an image per second is composed of), and the pixel value can be easily calculated. In addition to feature quantities such as image brightness, it is possible to extract motion (camera work) in the video, and it is also possible to detect objects by image recognition.
また,特許文献2の主に段落0037から段落0047には,映像における隣接フレーム間において,画像全体の類似度による全体変化量と局所的な類似度による局所集合変化量という2種類の特徴量を求めることによって,手ぶれと急激なカメラワークを検出する技術が記載されている。
Further, mainly in paragraphs 0037 to 0047 of
特許文献3の主に段落0041から段落0049には,あらかじめ撮影された画像(登録用画像)から特徴点を抽出して学習マップを用意しておき,それを入力画像(認識用画像)から抽出された特徴点を,ずらしマッチング処理を行うことにより探索し,画像認識を行う技術が記載されている。 In Patent Document 3, mainly in paragraphs 0041 to 0049, feature points are extracted from previously captured images (registration images) to prepare learning maps, which are extracted from input images (recognition images). A technique is described in which image recognition is performed by searching for the feature points that have been performed by performing shift matching processing.
また,非特許文献1に記載の方法によれば,指定された文字列が含まれる画像の検索を行うことが可能であり,この方法を使うことによって,画像中の案内標識,看板(文字看板)等に特定の文字列が含まれるかどうかを自動認識することができる。
しかしながら,従来の技術では,複数の撮影者により長期間にわたって繰り返し撮影を続けることにより,サーバに蓄積されるデータの更新がなされることに関しての考慮がなされていない。 However, in the conventional technology, consideration is not given to updating of data stored in the server by continuously taking images over a long period of time by a plurality of photographers.
すなわち,同一市町村内や担当営業地域内など,一定の地域内で繰り返し車を走らせるような業務を行っている業種は,物流業者・タクシー事業者・設備や道路の維持管理工事業者など多々あり,これらの車に搭載したデジタルビデオカメラにより撮影を行ってくると,対象地域を網羅した画像データが取得できるはずである。しかしながら,単純に撮影した画像データをサーバに逐次追加して記憶していくと,いかにHDD等の外部記憶装置が大容量化しているとはいえ,一方的に増加していくため,簡単にサーバの記憶容量限界を超えてしまう。 In other words, there are many industries such as logistics companies, taxi operators, equipment, and road maintenance management contractors that carry out operations that repeatedly run cars in a certain area, such as in the same municipality or sales area. If you take a picture with a digital video camera installed in these cars, you should be able to acquire image data covering the target area. However, simply adding captured image data to the server sequentially and storing them increases the capacity of external storage devices such as HDDs, but increases unilaterally. Exceeds the storage capacity limit.
また,他の課題として,位置を指定して画像検索を行った場合,特にそれが幹線道路等の撮影者が頻繁に通る位置であったときに,検索結果として条件に合致するデータが不必要なまでに数多くヒットしてしまうという問題もある。 Also, as another issue, when searching for an image with a specified position, especially when it is a position where photographers such as arterial roads frequently pass, there is no need for data that matches the search results. There is also the problem of hitting so many.
以上のような問題への対策として,サーバの容量を一定に保つために,同時に取得された位置情報をもとに,同一位置(もしくは,ある閾値距離以内)のデータが既にサーバ存在する場合には,古いデータを削除して新たに撮影されたデータのみを記憶することが考えられる。また,検索における結果を絞り込むために,撮影時刻あるいはサーバへの更新時刻が新しいもののみを検索結果としてヒットさせることも考えられる。 As a countermeasure against the above problems, in order to keep the server capacity constant, based on the location information acquired at the same time, if data at the same location (or within a certain threshold distance) already exists In this case, it is possible to delete old data and store only newly taken data. Also, in order to narrow down the search results, it is also possible to hit only those having a new shooting time or update time to the server as a search result.
しかしながら,例えばある日に撮影した画像データは晴れた日中で画像が鮮明に映っており,その翌日に同一地点から撮影した画像データは雨天の夕暮れ時で画像が不鮮明というような場合もあり得る。このようなケースがあることを考えると,最新のデータだけを蓄積したり,最新のデータだけを検索結果としてヒットさせる方式では,不鮮明な翌日のデータが参照されるようになってしまうという課題が生じる。 However, for example, the image data taken on one day may be clearly displayed on a clear day, and the image data taken from the same point on the next day may be unclear at dusk in the rain. . Considering that there are cases like this, the method of accumulating only the latest data or hitting only the latest data as a search result has the problem that the next day's unclear data will be referenced. Arise.
この例の場合,2日間の撮影者が同一であった場合には,その撮影者の判断として,翌日のデータはサーバに登録しないといった対処方法は可能であるが,多人数の撮影者がいる場合には,いちいち上書き登録すべきか否かの確認を行うことは大きな作業負担となるという課題がある。 In this example, if the photographers for the two days are the same, it is possible for the photographer to determine that the next day's data is not registered in the server, but there are many photographers. In such a case, there is a problem that it is a heavy work burden to confirm whether or not to perform overwriting registration one by one.
本発明は,以上のような課題を解決し,画像の利用者にとって有効なデータだけをサーバに簡単に登録することができるようにすることを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems and to easily register only data effective for an image user in a server.
本発明は,上記課題を解決するために,受信したデータからそのデータの有効度を算出する評価部を設け,その評価結果に応じてサーバ登録時に上書きして登録すべきか否かを自動的に判断する。 In order to solve the above problem, the present invention provides an evaluation unit that calculates the validity of the data from the received data, and automatically determines whether or not to overwrite and register at the time of server registration according to the evaluation result. to decide.
詳しくは,本発明は,撮影端末で撮影された映像を受信し,蓄積する画像蓄積装置(データ処理サーバ)であって,映像データとその映像データに対応付けられた撮影位置を示す位置データとを含むデータを,前記撮影端末から受信するサーバデータ受信部と,映像データに対応付けられた位置データを利用して,受信した映像データのフレームの位置をマッピングし,予め区切られた道路区間に対応するように当該映像データを分割して単位映像データを得る手段と,前記単位映像データと,その単位映像データに対して所定の評価式によって算出されたデータの有効度の値とを蓄積する画像データ蓄積部と,前記サーバデータ受信部により前記撮影端末からデータを受信したときに,受信したデータから得られる新しい単位映像データごとに,既に同じ道路区間で撮影された単位映像データが前記画像データ蓄積部に蓄積されている場合には,前記新しい単位映像データについて前記所定の評価式に従ってそのデータの有効度の値を算出し,蓄積されているデータの有効度の値との大小比較によって,前記画像データ蓄積部に蓄積されている単位映像データとそのデータの有効度の値とを前記新しい単位映像データとそのデータの有効度の値とで更新するかどうかを決定するデータ評価部とを備えることを特徴としている。 Specifically, the present invention is an image storage device (data processing server) that receives and stores video shot by a shooting terminal, and includes video data and position data indicating a shooting position associated with the video data, Is used to map the position of the frame of the received video data using a server data receiving unit that receives data including the image data from the photographing terminal and the position data associated with the video data, and to the road section delimited in advance. Corresponding means for dividing the video data so as to obtain unit video data, and storing the unit video data and the validity value of the data calculated by a predetermined evaluation formula for the unit video data an image data storage section, when the, your new unit image data obtained from the received data the received data from the imaging device by the server data receiver The already when the unit video data captured at the same road section is accumulated in the image data storage unit calculates the value of the effectiveness of the data above for the new unit video data according to the predetermined evaluation formula The unit video data stored in the image data storage unit and the validity value of the data are compared with the validity value of the stored data by comparing the new unit video data and the validity of the data. And a data evaluation unit that determines whether or not to update with the degree value.
これによって,画像データ蓄積部に蓄積する価値の小さい不要なデータが蓄積されることを回避することができるようになる。 As a result, it is possible to avoid storing unnecessary data with a small value stored in the image data storage unit.
前記データ評価部が用いる評価式としては,前記データの有効度の値が,単位映像データのフレーム数が大きいほど大きくなる評価式,もしくは前記単位映像データの解像度が大きいほど大きくなる評価式,もしくは前記単位映像データに含まれるピクセルの明度の平均値が大きいほど大きくなる評価式,もしくは前記単位映像データにおける各フレームの明度差の平均値が大きいほど大きくなる評価式,もしくは撮影日時が新しいほど大きくなる評価式,もしくは所定の方法で算出された蓄積対象の映像区間中の非手ぶれ区間率が大きいほど大きくなる評価式,またはこれらの評価式のうち複数を組み合わせた評価式を用いることができる。 The evaluation formula the data evaluation unit is used, the value of the effectiveness of the data, evaluation equation becomes larger as the number of frames the video data is large, or larger the larger the resolution of the unit video data evaluation formula, or An evaluation formula that increases as the average value of the brightness of the pixels included in the unit video data increases, or an evaluation formula that increases as the average value of the brightness difference of each frame in the unit video data increases, or a new shooting date and time increases. Or an evaluation formula that increases as the non-handshake segment ratio in the video segment to be accumulated calculated by a predetermined method increases, or an evaluation formula that combines a plurality of these evaluation formulas.
これにより,鮮明な単位映像データを優先的に画像データ蓄積部に蓄積することができるようになる。 As a result, clear unit video data can be preferentially stored in the image data storage unit.
さらに,前記画像蓄積装置は,前記撮影端末から受信したデータ内の映像データに写っているオブジェクトを認識するデータ認識部と,前記データ認識部が認識した認識結果を蓄積する認識データ蓄積部とを備え,前記データ評価部は,前記データの有効度の値の算出において前記認識データ蓄積部に蓄積された認識結果を利用し,認識率が大きいほどデータの有効度の値が大きくなる評価式を用いてデータの有効度の値を算出するように構成してもよい。 Further, the image storage device includes a data recognition unit for recognizing an object reflected in video data in data received from the photographing terminal, and a recognition data storage unit for storing a recognition result recognized by the data recognition unit. The data evaluation unit uses a recognition result stored in the recognition data storage unit in the calculation of the value of the validity of the data, and an evaluation formula that increases the value of the data effectiveness as the recognition rate increases. The data validity value may be calculated by using the data .
被写体である何らかのオブジェクトに対する認識率が高い映像データは,鮮明な映像データであることが多いので,認識率をデータの有効性の判断に用いることにより,適切な単位映像データを画像データ蓄積部に蓄積することが可能になる。 Video data with a high recognition rate for any object that is a subject is often clear video data. Therefore, by using the recognition rate to determine the validity of the data , appropriate unit video data is stored in the image data storage unit. It becomes possible to accumulate.
また,前記発明において,前記データ評価部は,前記画像データ蓄積部に蓄積する同じ道路区間で撮影された単位映像データの個数を最大n個(ただし,nは1以上の整数)とし,前記受信したデータの有効度の値が,前記画像データ蓄積部に蓄積されている同じ道路区間で撮影された単位映像データを含むデータの有効度のn番目に大きい値より大きい場合に,その蓄積されているデータのうち最もデータの有効度の小さいデータを削除して前記受信したデータから得られる単位映像データを前記画像データ蓄積部に保存し,小さい場合に,前記受信したデータから得られる単位映像データを前記画像データ蓄積部に蓄積しないで棄却するように構成することもできる。 In the present invention, the data evaluation unit sets the number of unit video data captured in the same road section stored in the image data storage unit to a maximum of n (where n is an integer of 1 or more), and the reception If the data validity value is greater than the nth largest value of the data validity including the unit video data shot in the same road section stored in the image data storage unit, Unit video data obtained from the received data by deleting the least effective data from the received data and stored in the image data storage unit, and if smaller, unit video data obtained from the received data Can be rejected without being stored in the image data storage unit.
これによって,nの設定値に応じた量の有効な単位映像データの蓄積が可能になる。 This makes it possible to store effective unit video data in an amount corresponding to the set value of n.
また,前記発明において,前記データ評価部は,前記画像データ蓄積部に,道路区間ごとの単位映像データを保存するときに,前記道路区間の上り方向と下り方向とを区別しないで同じ道路区間であるか否かを判断するように構成することもできる。 Further, in the invention, the data evaluation unit, to the image data storage unit, when storing the unit image data for each road segment, the same road section without distinguishing between uplink and downlink direction of the road section It can also be configured to determine whether or not there is.
車載カメラで撮影した映像のような場合,画像データ蓄積部に蓄積する単位映像データの用途によっては,上り方向と下り方向とを区別したほうがよい場合もあるが,区別する必要がない場合には,画像データ蓄積部に蓄積する単位映像データの量を少なくすることができる。 In the case of video shot with an in-vehicle camera, depending on the application of unit video data stored in the image data storage unit, it may be better to distinguish the up direction and the down direction. Therefore, the amount of unit video data stored in the image data storage unit can be reduced.
また,前記発明において,前記データ評価部は,異なる時間帯,曜日,期日または期間に撮影された映像データについては,別々に前記データの有効度の値の算出およびデータの有効度の値の大小比較を行うように構成することもできる。 In the present invention, the data evaluation unit separately calculates the validity value of the data and the magnitude of the validity value of the data for video data shot at different time periods, days of the week, due dates, or periods. It can also be configured to make a comparison.
これによって,例えば昼に撮影された映像と,夜に撮影された映像,もしくは通勤時間帯に撮影された映像などのように,異なる時間帯の単位映像データを別々に蓄積することができるようになる。あるいは,平日/休日で分けることや,降雪地域では,12月から3月頃までの降雪季節とそれ以外の季節に分けるというようなことも同様に可能である。 Thus, the image photographed in the daytime for example, such as video captured on video, or commuting hours was taken in the evening, a unit video data of different time zones to be able to accumulate separately Become. Alternatively, it is possible to divide by weekday / holiday, and in snowfall areas, it can be divided into the snowing season from December to March and other seasons.
また,画像蓄積システムは,前記画像蓄積装置を備えるとともに,映像を撮影する撮影部と,撮影時の位置情報を取得する位置取得部と,前記撮影された映像データと前記取得された位置データとを対応付けて蓄積する端末蓄積部と,前記端末蓄積部に蓄積されたデータを前記画像蓄積装置へ送信する端末送信部とを有する撮影端末を備える。 The image storage system includes the image storage device, an image capturing unit that captures an image , a position acquisition unit that acquires position information at the time of image capturing, the captured image data, and the acquired position data. And a terminal storage unit that transmits the data stored in the terminal storage unit to the image storage device.
前記画像蓄積システムにおいて,前記撮影端末と前記画像蓄積装置との間に,前記撮影端末からのデータを無線LANインタフェースにより受信するアクセスポイントデータ受信部と,受信したデータを前記画像蓄積装置に送信するアクセスポイントデータ送信部とからなるデータ中継器を備える構成としてもよい。 In the image storage system, an access point data receiving unit that receives data from the shooting terminal via a wireless LAN interface between the shooting terminal and the image storage device, and transmits the received data to the image storage device. It is good also as a structure provided with the data repeater which consists of an access point data transmission part.
このデータ中継器を備える画像蓄積システムでは,撮影端末として携帯電話などを利用する場合に比べて,撮影端末の通信コストを削減することができる。 In the image storage system including this data repeater, the communication cost of the photographing terminal can be reduced as compared with the case where a mobile phone or the like is used as the photographing terminal.
本発明によれば,同じ位置において重複して撮影されたような映像のうち,鮮明な映像だけを蓄積することができるようになり,映像の利用者にとって有効なデータを少ない記憶容量で保存することができるようになる。 According to the present invention, it becomes possible to accumulate only clear images among images that have been taken in duplicate at the same position, and save data effective for the user of the image with a small storage capacity. Will be able to.
以下,本発明を適用した画像蓄積装置の実施の形態を図面を用いて詳細に説明する。 Embodiments of an image storage apparatus to which the present invention is applied will be described in detail below with reference to the drawings.
図1は,本発明の実施の形態に係るシステム全体の構成例を示している。図1において,10は車載カメラやカメラ付き携帯電話その他の撮影端末,20は撮影端末10で撮影された画像を蓄積する画像蓄積装置であるデータ処理サーバ,30は無線LANでの通信をインターネットに中継するデータ中継器である。撮影端末10が,直接,電話網や通信網を介してデータ処理サーバ20と通信を行えるような構成の場合には,データ中継器30は設けなくてもよい。
FIG. 1 shows a configuration example of the entire system according to the embodiment of the present invention. In FIG. 1,
撮影端末10は,撮影部11,位置情報取得部12,端末蓄積部13,端末データ送信部14を備える。これらの詳細については後述する。
The
データ処理サーバ20は,サーバデータ受信部21,データ評価部22,画像データ蓄積部23,データ認識部24,認識データ蓄積部25を備える。これらの詳細についても後述する。
The
データ中継器30は,撮影端末10から通信要求を受け付けるアクセスポイントデータ受信部31,要求された通信データをインターネット等を介してデータ処理サーバ20へ送信するアクセスポイントデータ送信部32を備える。
The data repeater 30 includes an access point
図2は,撮影端末10の構成例を示している。この例では,撮影端末10の本体部として,フラッシュメモリ130を内蔵した小型可搬PC(パーソナルコンピュータ)100を用い,図1の撮影部11としてデジタルカメラ110,位置情報取得部12としてGPS装置120,端末データ送信部14としてデータ通信用携帯電話140を用いている。フラッシュメモリ130は,端末蓄積部13として用いられている。デジタルカメラ110,GPS装置120,データ通信用携帯電話140は,USBケーブル等により,小型可搬PC100に接続される。もちろん,本発明は,これらの機器を一体型として組み込んだものを撮影端末10として実施することも可能である。
FIG. 2 shows a configuration example of the photographing
デジタルカメラ110は,車両のダッシュボードやフロントグリル内など,前方外部が撮影できる位置に固定して設置される。また,GPS装置120も,GPS衛星からの電波を受信可能なダッシュボードや車外の天井等に設置される。小型可搬PC100とデータ通信用携帯電話140も車内の運転に支障がない場所に固定して設置される。
The
デジタルカメラ110により撮影された,2次元配列上の画素(ピクセル)ごとのRGB値の数値データに変換された画像データは,逐次,JPEG形式の瞬間ごとの画像に変換され,それらのデータを一定時間分まとめたモーションJPEG形式のファイルとしてフラッシュメモリ130を利用した記憶ドライブに格納される。あるいは,連続した画像が1つの映像としてMPEG形式のファイルに変換されて,フラッシュメモリ130を利用した記憶ドライブに格納される。このようなモーションJPEGあるいはMPEGといった標準形式のファイルとして映像データを保存するための手段は,市販されているPC上のソフトウェアを利用して実現することもできる。
Image data captured by the
GPS装置120からも,逐次,GPS衛星からの電波を受けて算出された自己位置のデータが小型可搬PC100に送られてくる。自己位置のデータは,決められた様式のテキストデータとして送られてくるので,そのテキストデータを小型可搬PC100上のソフトウェアで解析することにより,緯度・経度のデータを取り出すことができる。その時点で,デジタルカメラ110から取得し映像ファイルとして書き込みを行っている映像のファイル名とフレーム番号とともに,緯度・経度のデータを,例えば図3のような表形式の画像データ管理テーブルに,1レコードずつ書き込む。あるいは,図3のようなデータを表すカンマ区切りのテキストファイル等に1行ずつ書き込むといった実施も可能である。
Also from the
図3に示す画像データ管理テーブル(あるいはテキストファイル)は,映像ファイルのファイル名,フレーム番号,撮影時刻,緯度,経度等のデータ項目により構成され,フラッシュメモリ130上のファイルとして格納される。このように,端末蓄積部13は,フラッシュメモリ130上に撮影された画像データと取得された位置データを共に蓄積するように構成できる。
The image data management table (or text file) shown in FIG. 3 includes data items such as the file name, frame number, shooting time, latitude, and longitude of the video file, and is stored as a file on the
この小型可搬PC100に接続したデータ通信用携帯電話140を用いて,インターネットにこの端末を接続し,やはりインターネット上に接続されたデータ処理サーバ20に対して,データ通信用のコネクションを確立することができる。このようにして確立されたデータ通信コネクションを通じて,フラッシュメモリ130上に蓄積された画像データと位置データを,データ処理サーバ20に転送する。特に,標準化されたHTTPプロトコルを利用し,データ処理サーバ20上のHTTPサーバプロセスに対してデータを送信するソフトウェアを,撮影端末10を構成する小型可搬PC100上に実装することは容易である。
Using the data communication
この場合に,データ送信のためのHTTPリクエストに対する正常・異常を示すリターン値を定めておくことにより,データ処理サーバ20が確実にデータの転送を受けたか否かを送信側である小型可搬PC100上のソフトウェアが判断できるので,処理異常時にはリトライを行い,処理正常時には送信済みのデータをフラッシュメモリ130から削除するという構成をとることができる。
In this case, by determining a return value indicating normality / abnormality with respect to the HTTP request for data transmission, it is possible to determine whether or not the
図4は,撮影端末10の他の構成例を示す図である。図2で説明した撮影端末10との差異がある部分は,撮影端末10からのデータ送信方式にあり,図2の撮影端末10では,端末データ送信部14としてデータ通信用携帯電話140を用いていたのに対し,本実施例では,無線LANカード141を用いている。他のデジタルカメラ111,GPS装置121,フラッシュメモリ131,小型可搬PC101の部分は,図2に示すものとほぼ同様である。
FIG. 4 is a diagram illustrating another configuration example of the photographing
無線LANカード141を用いる場合,データ通信用携帯電話140とは異なり,無線LANアクセスポイントの電波範囲内という限られた場所でのみ利用可能であるため,撮影端末10の処理としては,あらかじめアクセスポイント(データ中継器30)の位置を登録しておき,位置情報がその範囲内に入ったときにデータ通信用コネクションを確立するようにしておく。あるいは,撮影端末10上に利用者が操作できる「通信ボタン」を配置し,そのボタンが押されたときに接続するようにするという実施例も考えられる。
When the
データ中継器30は,無線LANカード141を用いた無線LANインタフェースでの通信をインターネットに中継するもので,このような機能を持った装置は市販されている。また,このようにして送信されるデータは,図2の撮影端末10を用いた場合と変わらないため,データ処理サーバ20はまったく同じ構成で実施できる。
The data repeater 30 relays communication via a wireless LAN interface using the
図4に示す撮影端末10では,一般に通信コストが高く通信速度も低速な携帯電話を使わないので,コストと通信速度の面で有利であるという効果がある。
The photographing
図5は,図4に示す撮影端末10を用いるときに利用するデータ中継器30の構成例を示している。
FIG. 5 shows a configuration example of the data repeater 30 used when the
本実施例におけるデータ中継器30は,撮影端末10からの無線LANアクセスポイント301と,インターネット50に接続するためのネットワークカード(イーサネットカード)303と,これらを制御する制御用CPU302から構成される。このようなデータ中継器30としては,市販されている既存のものを用いることができる。
The data repeater 30 in this embodiment includes a wireless
次に,データ処理サーバ20の実施例について説明する。図6は,データ処理サーバ20のハードウェア構成例を示している。
Next, an embodiment of the
データ処理サーバ20は,図6に示すように,プログラム格納域202に格納された命令をフェッチして実行するCPU201,磁気ディスク装置(HDD)203,メモリ204,インターネット50に接続するためのアダプタであるネットワークカード205などからなる汎用的な計算機を用いて構成され,これらのハードウェアとプログラム格納域202に格納されるソフトウェアプログラムとによって,図1に示すサーバデータ受信部21,データ評価部22,画像データ蓄積部23,データ認識部24,認識データ蓄積部25が実現される。
As shown in FIG. 6, the
このうち,データ処理サーバ20における画像データ蓄積部23としては,汎用的なデータベースマネージメントシステム(DBMS)を利用し,図7のようなテーブルを構成することで実現する。すなわち,画像データ蓄積部23には,単位映像データ(詳細は後述),撮影時刻,起点と終点のそれぞれの緯度・経度のデータなどが格納される。なお,この例では,映像データそのものをテーブル上の1つのカラムとして格納する方式としているが,他の実施例として,映像データは通常のファイル形式としておき,DBMS内のテーブルには,そのファイル名を管理することで同様に本発明を実施することも可能である。
Among these, the image
図8は,サーバデータ受信部21の処理フローチャートである。サーバデータ受信部21は,上記で説明した撮影端末10の端末データ送信部14の実施例に対応して,図8のような処理の実行機能を持つ。
FIG. 8 is a process flowchart of the server
サーバデータ受信部21は,まずステップS1において,端末データ送信部14から送られてきたHTTPリクエストを受信し,ステップS2では,HTTPプロトコルにより送信されてくる映像データと位置データとを,それぞれデータ処理サーバ20内に映像ファイル40,位置情報テキストファイル41の一時ファイルとして復元する。
The server
次に,ステップS3により,エラーなく復元できたかどうかを判定し,正常に復元できた場合には,ステップS4により,データ評価部22に対してファイル受信があったことをファイル名と共にイベント情報として通知する。また,撮影端末10に対しては,ステップS5により,処理途中での異常の有無を返却する。
Next, in step S3, it is determined whether or not the data can be restored without error. If the data can be restored normally, in step S4, the fact that the file has been received by the
図9は,データ評価部22の処理フローチャートである。なお,ここでは主に分割された単位映像ごとにデータを評価する例を説明するが,もっと単純に各フレームの画像ごとにデータを評価する実施も可能であることは,以下の説明から明らかである。
FIG. 9 is a process flowchart of the
データ評価部22は,ステップS10にて,サーバデータ受信部21からイベントの通知を受けて処理を開始する。まず,ステップS11では,一時ファイルとして保存されている映像ファイル40と位置情報テキストファイル41のデータから,単位映像に分割する処理を行う。ここで単位映像とは,撮影された地域の道路をあらかじめ区切った単位のことをいう。
In step S10, the
図10は,単位映像区間の説明図である。映像区間は,図10(A)に示すように各交差点で区切ることや,図10(B)に示すように交差点とは無関係に一定間隔で区切ることなどが考えられる。さらに,極端な場合として,図10(C)に示すように一地点ごと(映像の1フレーム画像)に区切ることも考えられる。 FIG. 10 is an explanatory diagram of a unit video section. The video section can be divided at each intersection as shown in FIG. 10A, or can be divided at regular intervals regardless of the intersection as shown in FIG. 10B. Further, as an extreme case, as shown in FIG. 10C, it is conceivable to divide each point (one frame image).
映像ファイル40に格納されている映像を単位映像に分割するためには,映像内の各フレームごとの位置情報が必要であるが,映像取得の間隔(すなわち映像のフレームレート)と位置情報取得の間隔が異なり,フレーム番号に対応する位置情報がないこともあり得る。しかし,その場合には,前後のフレームのうち位置情報が付与された情報を利用して,比例配分などの計算式によって近似することで,各フレームに対する位置情報を付与できる。
In order to divide the video stored in the
なお,図10(A)および(B)のような区切りを行う例の場合には,あらかじめ,対象となる地域の道路地図データなどを保持しておき,映像中の各フレームの画像が,どの道路地点のデータであるかを検索する。このとき,一般にGPSで取得される位置には誤差があるので,もっとも近い道路上の位置にマッピングさせる。あるフレームの位置をマッピングした道路位置が属する道路区間が,その前のフレームの位置をマッピングした道路位置が属する区間と異なる場合には,そのフレーム間に区切り位置あると判断できるので,そのフレーム位置で映像を分割する。このような処理により,映像分割を実施することができる。 10A and 10B, the road map data of the target area is stored in advance, and the image of each frame in the video is displayed. Search for road location data. At this time, generally, there is an error in the position acquired by the GPS, so that it is mapped to the closest position on the road. If the road section to which the road position mapping the position of a frame belongs is different from the section to which the road position mapping the previous frame position belongs, it can be determined that there is a separation position between the frames. Divide the video with. Such a process as possible out to carry out the image segmentation.
以下の実施例の説明では,区切りの区間の距離を数十メートル程度と考え,それぞれ区切られた区間は,起点と終点の緯度・経度で唯一に指定できる(起点終点間に迂回路がない)という条件が成り立つという想定で説明する。以上のような条件が成立しない場合にも,道路ID番号を付与するとか,中間経由地の緯度・経度を付与するとかいう方法により,本発明を実施することができる。 In the following description of the embodiment, the distance between the divided sections is assumed to be about several tens of meters, and each divided section can be uniquely specified by the latitude and longitude of the start point and the end point (there is no detour between the start point and the end point) The explanation is based on the assumption that the above condition holds. Even when the above conditions are not satisfied, the present invention can be implemented by a method of giving a road ID number or giving a latitude / longitude of an intermediate waypoint.
さらに,区間ごと(一地点ごとに区切る場合には映像内の画像ごと)に下記の処理(S121〜S126)を繰り返す。まず,ステップS121では,対象の区間と同一のデータが,画像データ蓄積部23内に存在するかどうかを検索する。これは,DBMSの機能により,起点と終点の緯度・経度を条件として検索することにより実現できる。ステップS122の判定により,もし,条件に合致するデータがない場合には,ステップS123へ進み,新たな分割映像の区間データを追加登録して,繰り返し処理に戻る。追加登録もDBMSの機能を用いて実現できる。
Furthermore, the following processing (S121 to S126) is repeated for each section (for each image in the case of dividing each spot). First, in step S121, it is searched whether or not the same data as the target section exists in the image
条件に合致するデータが存在する場合には,ステップS124へ進み,蓄積データと新たなデータのそれぞれに対して,有効度を計算する。新たなデータの有効度をA,蓄積データの有効度をBとして説明する。 If there is data that matches the condition, the process proceeds to step S124, and the effectiveness is calculated for each of the accumulated data and new data. A description will be given assuming that the validity of new data is A and the validity of stored data is B.
有効度の計算方法の一例を図11に示す。この例では,フレームレートが高い,解像度が高い,明るい(悪天候や夕暮れ時等の撮影ではない),コントラストがはっきりしている,最近撮影された,といった条件ほど有効であるとし,これらの数値に加重係数を掛けた上で合計するといった比較的単純な式により計算することとしている。 An example of a method for calculating the effectiveness is shown in FIG. In this example, conditions such as high frame rate, high resolution, bright (not shooting in bad weather, dusk, etc.), clear contrast, and recently taken are considered to be effective. The calculation is made by a relatively simple formula such as multiplying by a weighting factor and summing.
ステップS30では,区間映像のフレーム数(またはフレームレート)を有効度Afrとする。ステップS31では,区間映像の解像度をAres とする。区間映像の解像度は,1フレームの縦ピクセル数×横ピクセル数である。次に,ステップS32では,明るさに着目した有効度Abrを,区間映像の各フレームの各ピクセルの明度の平均値として算出する。 In step S30, the number of frames (or frame rate) of the section video is set as the effectiveness A fr . In step S31, the resolution of the section video is Ares . The resolution of the section video is the number of vertical pixels × the number of horizontal pixels in one frame. Next, in step S32, the effectiveness Abr focusing on the brightness is calculated as the average value of the brightness of each pixel of each frame of the section video.
Abr=Σf Σx Σy Y(f,x,y)/(フレーム数×縦ピクセル数×横ピクセル数)である。ただし,NTSC系加重平均法と呼ばれる下記の式で,画素のRGB値から明度Yを計算する。すなわち,fフレーム目の(x,y)画素の明度をY(f,x,y)としたとき,Y(f,x,y)を次の式で算出する。 A A br = Σ f Σ x Σ y Y (f, x, y) / (× number of vertical pixels × number of horizontal pixels the number of frames). However, the brightness Y is calculated from the RGB values of the pixels using the following formula called NTSC weighted average method. That is, when the brightness of the (x, y) pixel in the f frame is Y (f, x, y), Y (f, x, y) is calculated by the following equation.
Y(f,x,y)=0.298912*R(f,x,y)+0.586611*G(f,x,y)+0.114478*B(f,x,y)
次のステップS33では,区間映像の各フレームの明度差の平均値を,コントラストに着目した有効度Acon として算出する。
Y (f, x, y) = 0.298912 * R (f, x, y) + 0.586611 * G (f, x, y) + 0.114478 * B (f, x, y)
In the next step S33, the average value of the brightness difference of each frame of the section video is calculated as the effectiveness A con focusing on the contrast.
Acon = Σf {Ymax (f)−Ymin (f)}/フレーム数
として算出される。ただし,Ymax (f)はフレームfにおける明度の最大値,Ymin (f)はフレームfにおける明度の最小値である。
A con = Σ f {Y max (f) −Y min (f)} / number of frames. However, Y max (f) is the maximum value of lightness in frame f, and Y min (f) is the minimum value of lightness in frame f.
ステップS34では,ある基準日時からの経過秒数を,撮影日時に関する有効度Atiとする。なお,基準日時は最も古い撮影日時より古い時点であれば,いつでもよい。 In step S34, the number of seconds elapsed from a certain reference date and time is set as the effectiveness A ti for the shooting date and time. The reference date and time may be any time as long as it is older than the oldest shooting date and time.
最後に,ステップS35では,以上を総合した有効度Aを,次式により算出する。 Finally, in step S35, the effectiveness A that combines the above is calculated by the following equation.
A=ΣCi ×Ai
ここで,Ai は,ステップS30〜S34で算出したAfr(フレーム数に着目した有効度),Ares (解像度に着目した有効度),Abr(明るさに着目した有効度),Acon (コントラストに着目した有効度),Ati(撮影日時に着目した有効度)である。また,Ci は,あらかじめ定められた各Ai の評価項目に対する加重係数である。
A = ΣC i × A i
Here, A i is A fr (effectiveness focused on the number of frames), A res (effectiveness focused on the resolution), A br (effectiveness focused on the brightness), A calculated in steps S30 to S34. con (effectiveness focused on contrast) and A ti (effectiveness focused on shooting date). C i is a weighting coefficient for each predetermined evaluation item of A i .
図9のステップS125で,新たな映像データの有効度Aのほうが,蓄積データの有効度Bより高いと評価された場合には,ステップS126へ進み,DBMSの機能を用いて画像データ蓄積部23に蓄積されている蓄積映像を削除し,新たな分割映像を画像データ蓄積部23に登録する。すなわち,画像データ蓄積部23に蓄積されている同一位置の映像データを,新たな映像データに更新する。なお,画像データ蓄積部23に新たな映像データを格納するとき,その有効度Aを蓄積データの有効度Bとして保存しておくようにしてもよい。
If it is determined in step S125 in FIG. 9 that the validity A of the new video data is higher than the validity B of the stored data, the process proceeds to step S126, and the image
ステップS125の有効度の評価において,蓄積データの有効度Bのほうが高い場合には,新たな映像データは画像データ蓄積部23に登録しないで棄却する。以上のステップS121〜S126を,分割された映像ごとに繰り返す。
If the validity B of the stored data is higher in the evaluation of the effectiveness in step S125, the new video data is rejected without being registered in the image
図11に示したような有効度の算出方法で用いる計算式は,本発明の具体的な使用目的に応じて,適当な式に変更して実施することもできる。以下に,その具体的な変更例を挙げる。 The calculation formula used in the effectiveness calculation method as shown in FIG. 11 can be changed to an appropriate formula according to the specific use purpose of the present invention. The following are specific examples of changes.
例えば,明るさに関しては,図11の例では,明るいほど「Abr」の値が大きくなるようにしているが,明る過ぎる画像が必ずしも望ましくない場合もあり得る。これを考慮して,理想とする期待値との差を「Abr」の値として計算してもよい。なお,この場合には,期待値に近いほど数値が小さくなるため,加重係数としては,マイナス値を取るようにすることで,期待値に近いほど有効度が高く評価されるようにできる。すなわち,
Abr=区間映像の各フレームの各ピクセルの明度の期待値からのずれの平均値
=Σf Σx Σy abs(Y(f,x,y)−Y0 )/(フレーム数×縦ピクセル数 ×横ピクセル数)
である。ただし,abs()は,絶対値を求める関数,Y0 は理想とする明度の値である。
For example, with regard to brightness, in the example of FIG. 11, the value of “A br ” increases as the brightness increases, but an image that is too bright may not always be desirable. Considering this, the difference from the ideal expected value may be calculated as the value of “A br ”. In this case, since the numerical value becomes smaller as it is closer to the expected value, by taking a negative value as the weighting coefficient, the closer to the expected value, the higher the effectiveness can be evaluated. That is,
A br = interval deviation of the mean value from the expected value of the brightness of each pixel of each frame of the video = Σ f Σ x Σ y abs (Y (f, x, y) -Y 0) / ( number of frames × vertical pixels Number x number of horizontal pixels)
It is. Here, abs () is a function for obtaining an absolute value, and Y 0 is an ideal brightness value.
また,コントラストについては,図11の例では,最大値と最小値のみを利用して評価するため,ごく限られた画素のみが極端に明るかったり極端に暗かったりすることがあり,不適切に「Acon 」の値が高く評価されることがあり得る。そこで,画素全体の明度を統計処理することにより,明度の分布の指標となる標準偏差を算出することができるので,その指標を「Acon 」の値として利用する実施も好適である。すなわち,
Acon =区間映像の各フレームの明度の標準偏差の平均値
=Σf {σ(f)}/フレーム数
である。σ(f)は,フレームfにおける明度の分布Y(f,x,y)を統計処理して求めた標準偏差である。この値は,偏りが少ない(つまり明度が満遍なく分散している)ほど大きな数値となるため,有効度が高くなる。
Further, since the contrast is evaluated using only the maximum value and the minimum value in the example of FIG. 11, only a very limited number of pixels may be extremely bright or extremely dark. The value of “A con ” may be highly evaluated. Therefore, by performing statistical processing on the brightness of the entire pixel, it is possible to calculate a standard deviation that serves as an index of the distribution of brightness. Therefore, it is also preferable to use the index as the value of “A con ”. That is,
A con = average value standard value of brightness of each frame of the section video = Σ f {σ (f)} / number of frames
It is. σ (f) is a standard deviation obtained by statistically processing the lightness distribution Y (f, x, y) in the frame f. Since this value becomes larger as the bias is smaller (that is, the lightness is evenly distributed), the effectiveness becomes higher.
さらに,これらの値は,その有効度合いに応じて,そのままの値で使用するのではなく数学的な計算を施してから求めることもできる。例えば,撮影日時についての有効度「Ati」の値の算出においては,現在日時との差を,1ヶ月ごとに値が半減するような計算式により算出することもできる。 Furthermore, these values can be obtained after performing mathematical calculations instead of using them as they are, depending on their effectiveness. For example, in calculating the value of the effectiveness “A ti ” for the shooting date and time, the difference from the current date and time can be calculated by a calculation formula that halves the value every month.
Ati=(1/2)**(現在日時−撮影日時)
なお,ここで**は巾乗を表し,日時は月単位に換算して算出するものとする。
A ti = (1/2) ** (current date and time-shooting date and time)
Here, ** represents the power, and the date / time is calculated in terms of months.
つまり,非常に新しい画像と比較して,有効度が1ヶ月前の画像は1/2,2ヶ月前の画像は1/4,3ヶ月前の画像は1/8となるような算出式を用いてもよく,これは『現在の画像か1ヶ月前の画像か』の差は大きいが,『1年(12ヶ月)前の画像か1年1ヶ月(13ヶ月)前の画像か』の差はあまり影響がないというような場合には,有用な値となる。
In other words, compared with a very new image, the calculation formula is such that the effectiveness is 1/2 for an
また,上記の例では,「Abr」の値や「Acon 」の値などは,映像を構成する全画像をもとに算出する方法を述べているが,車載カメラからの画像では連続的に撮影されるため,隣接する画像間において大きな値の変化が少ないと考えられる。そこで計算量を削減するために,次に述べる方法1〜方法3などのように,一部の画像のみを対象として算出するような実施も好適である。
〔方法1〕先頭,最終などの特定のフレーム番号の画像の情報のみを使用する。
〔方法2〕評価時にランダムに指定されたフレーム番号の画像の情報のみを使用する。
〔方法3〕フレームレートを下げて(例えば30fpsの映像に対して,30フレームずつ飛ばすことによって1fpsとする)から平均値を計算する。
In the above example, the value of “A br ”, the value of “A con ”, and the like are described based on all the images constituting the video. Therefore, it is considered that there is little change in the large value between adjacent images. Therefore, in order to reduce the amount of calculation, it is also preferable to perform calculation for only a part of images, such as
[Method 1] Only information of an image having a specific frame number such as the beginning or end is used.
[Method 2] Only information of an image having a frame number randomly specified at the time of evaluation is used.
[Method 3] The average value is calculated after the frame rate is lowered (for example, 30 fps video is skipped by 30 frames to obtain 1 fps).
他に有効度に基づいて画像データを更新するかどうかを決定する方法として,次のような方法を用いる実施も好適である。 As another method for determining whether or not to update the image data based on the effectiveness, it is also preferable to use the following method.
(1)保存する画像データを有効度の最も高い1つだけにするのではなく,最大n個としておき,新たな画像に対して有効度が,既存の有効度のn番目より大きければ,新たな画像を追加して,n番目(既存のうちもっとも有効度の低いもの)を削除する。これにより,同一の位置について種々の環境条件に応じたn個の画像データが保存されることになり,利用者が必要とする適切な画像データが上書きされてしまう確率が小さくなる。 (1) The image data to be stored is not limited to the one with the highest validity, but is set to a maximum of n, and if the validity for a new image is greater than the nth existing validity, a new New image is added and the nth (the least effective one among existing ones) is deleted. As a result, n pieces of image data corresponding to various environmental conditions are stored at the same position, and the probability that appropriate image data required by the user is overwritten is reduced.
(2)上記の例では,位置情報を起点と終点の緯度・経度としているので,実際には,同じ区間でも上下は別々になる。これをわざと上下同一視するようにして,上り下りで有効度の高いもの1つだけにする。こうすることにより,記憶装置に蓄積する画像データの蓄積量をさらに小さくすることができる。 (2) In the above example, since the position information is the latitude and longitude of the starting point and the ending point, the upper and lower sides are actually different even in the same section. This is intentionally identified as the top and bottom, so that only one with high effectiveness is obtained in the up and down directions. By doing so, the amount of image data stored in the storage device can be further reduced.
(3)画像データに,位置情報の他に撮影時刻の時刻情報も付加し,蓄積する画像データを位置情報で分けるだけでなく,時間帯で分ける実施も可能である。つまりデータ上に,「時間帯」というカラムを設け,それもキーとすることにより,「昼」と「夜」を別々に蓄積するというように実施することができる。同様に,平日/休日で分けることや,特定の期日や季節で分けるなど,時間的に異なる状況があり得る場合に,それらを時間情報のキーを用いて別々に蓄積し管理するような実施も可能である。 (3) It is possible to add not only position information but also time information of photographing time to the image data and divide the stored image data not only by position information but also by time zone. In other words, by providing a column “time zone” on the data and using it as a key, “day” and “night” can be stored separately. Similarly, when there may be different situations in time, such as dividing by weekdays / holidays or by specific due dates or seasons, implementation is also possible to store and manage them separately using the key of time information. Is possible.
(4)一度計算した有効度の評価値を画像データ蓄積部23に保存しておくことにより,新たなデータが送信されてきたときに,既存データの有効度を計算し直すのではなく,その保存されたデータを使うことができる。
(4) By saving the evaluation value of the validity calculated once in the image
次に,データ処理サーバ20が,撮影端末10から受信した画像データからその画像データ内のオブジェクトを認識するデータ認識部24を用い,認識結果について認識データ蓄積部25に蓄積する実施例について説明する。
Next, an embodiment in which the
図12は,本実施例におけるデータ評価部22の処理フローチャートである。前述した図9の処理フローチャートと全体的な処理の概要は同様である。ただし,本実施例では,ステップS224における有効度の算出において,データ認識部24による認識結果を評価値として用いる点が異なる。以下では,この違い部分について詳述する。
FIG. 12 is a processing flowchart of the
画像データあるいはその連続した画像列からなる映像データから特徴量を抽出して,有効な認識を行う技術は多く考案されている(特許文献2,特許文献3,非特許文献1など)。これらの技術を用いて,画像データを入力すると認識結果を出力するソフトウェアライブラリを構成することは可能であり,本実施例におけるデータ認識部24は,このソフトウェアライブラリを用いて実施される形態とすることができる。具体的には次のように実現することができる。
Many techniques have been devised that extract feature values from image data or video data composed of continuous image sequences and perform effective recognition (
特許文献2によれば,映像における隣接フレーム間において,画像全体の類似度による全体変化量と局所的な類似度による局所集合変化量という2種類の特徴量を求めることによって,手ぶれと急激なカメラワークを検出することが可能となる。車載カメラからの映像の場合,車の発進・停止時や障害物を乗り越える際の揺れ,あるいはカメラ設置の不備による画像の揺れが「手ぶれ」に相当すると考えられる。これにより,手ぶれ区間が,元となる映像区間中に占める割合(%)を計算できる。この値を100%から引くことで,対象映像区間中の非手ぶれ区間率(つまり有効な区間の割合)を算出することができる。特許文献2の方法は,計算機上のソフトウェアによって実現可能であるので,映像データを入力として,この非手ぶれ区間率を出力するソフトウェアライブラリの構築は可能である。
According to
特許文献3によれば,あらかじめ撮影された画像(登録用画像)から特徴点を抽出して学習マップを用意しておき,それを入力画像(認識用画像)から抽出された特徴点を,ずらしマッチング処理を行うことにより探索し,画像認識を行うことができる。そのため,あらかじめ交通標識や特定の形状の看板(コンビニエンスストアやレストラン等のロゴ看板)等のオブジェクトを登録用画像として用意しておくことにより,これらのオブジェクトが認識用画像中に存在するか否か,存在する場合には画像上のどの位置にあるかを算出することが可能となる。 According to Patent Document 3, a feature map is prepared by extracting a feature point from a previously captured image (registration image), and the feature point extracted from the input image (recognition image) is shifted. Searching and image recognition can be performed by performing matching processing. Therefore, by preparing objects such as traffic signs and signboards of specific shapes (convenience stores, restaurants, etc.) as registration images in advance, whether these objects exist in the recognition image or not. If it exists, it is possible to calculate the position on the image.
図13は,データ認識部24の処理フローチャートである。データ認識部24は,認識用の位置情報付き映像データ60(=連続する画像データ)を入力すると,繰り返し処理によって画像データを1フレームずつ取り出して各フレームにどのオブジェクトがどの位置にあるかを判定する。そのため,まずステップS50において,位置情報付き映像データ60をフレームごとの画像データに分離する。次に,ステップS51では,前述した特許文献2,特許文献3,非特許文献1などに記載された技術を用いて画像認識を行い,認識のための登録用画像として用意されたオブジェクト(認識対象物)があれば,それを認識結果とする。ステップS52では,認識結果をメモリ領域上の認識結果テーブル61に保存する。
FIG. 13 is a process flowchart of the
図14(A)は,認識結果テーブル61の例を示している。ここでは,道路標識を認識対象のオブジェクトとしている。認識結果テーブル61は,図14(A)に示すように,フレーム番号と,認識されたオブジェクト種別(またはオブジェクト名など),認識されたオブジェクトのフレーム内の位置を示すオブジェクト位置,そのオブジェクトの縦横のサイズを示す大きさなどの情報を保持する。 FIG. 14A shows an example of the recognition result table 61. Here, a road sign is an object to be recognized. As shown in FIG. 14A, the recognition result table 61 includes a frame number, a recognized object type (or object name, etc.), an object position indicating the position of the recognized object in the frame, and the vertical and horizontal directions of the object. Information such as the size indicating the size of the file is stored.
ステップS53では,最終フレームまで認識が終了したかどうかを判定し,最終フレームまで処理していなければ,ステップS50へ戻り,同様にフレームごとの画像認識を繰り返す。 In step S53, it is determined whether or not the recognition has been completed up to the final frame. If the processing has not been completed up to the final frame, the process returns to step S50, and image recognition for each frame is repeated.
最終フレームまで認識が終了したならば,次にステップS54において,これまでの認識結果のうち不要となるものの条件に合致するかどうかを判定する。ここでは,例えば次のような条件がすべて満たされたものを,不要な認識結果と判断する。
〔条件1〕連続した隣接フレームに同じオブジェクト種別がある。
〔条件2〕オブジェクト位置の差が所定の閾値以下である。
〔条件3〕条件1および条件2を満たす対象の中で大きさが最大でない。
If the recognition has been completed up to the last frame, it is next determined in step S54 whether or not the conditions of unnecessary recognition results so far are met. Here, for example, a case where all of the following conditions are satisfied is determined as an unnecessary recognition result.
[Condition 1] Contiguous adjacent frames have the same object type.
[Condition 2] The difference in object positions is less than or equal to a predetermined threshold value.
[Condition 3] The size is not the largest among the
認識結果テーブル61のレコードにおいて,以上の条件1〜3がすべて満たされれば,ステップS55へ進み,そのレコードを認識結果テーブル61から削除する。この処理により,例えば図14(A)に示す認識結果テーブル61において,第N−1フレームの「止まれ」のレコード,第Nフレームと第N+1フレームの「右折禁止」のレコードが削除されることになる。
If all of the
ステップS56において,認識結果テーブル61の最終レコードまでの削除条件のチェックを行ったかどうかを判定し,未チェックのレコードがあれは,同様にステップS55に戻って処理を繰り返す。すべてチェックしたならば,ステップS57へ進む。 In step S56, it is determined whether or not the deletion condition up to the last record in the recognition result table 61 has been checked. If there is an unchecked record, the process returns to step S55 and the process is repeated. If all are checked, the process proceeds to step S57.
ステップS57では,認識結果テーブル61に残った各レコードのフレーム番号を,映像データに付加された位置情報をもとに,緯度・経度の情報に変換し,結果をオブジェクト認識結果62として出力する。図14(B)は,その出力されたオブジェクト認識結果62の例を示している。このオブジェクト認識結果62は,認識データ蓄積部25に蓄積される。
In step S57, the frame number of each record remaining in the recognition result table 61 is converted into latitude / longitude information based on the position information added to the video data, and the result is output as the
上記ステップS54,S55の処理について,具体例に従って,さらに詳しく説明する。 The processes of steps S54 and S55 will be described in more detail according to a specific example.
図15は,隣接フレームに移る同一オブジェクトの例を示している。図中のRが「右折禁止標識」として認識された領域を示している。図15に示すように,車載カメラからの映像の場合,隣接する複数のフレームで,同一の標識等が映っていることが一般的なため,隣接する複数のフレームで同じオブジェクトの認識結果が画像上近接した位置として出力される。 FIG. 15 shows an example of the same object moving to an adjacent frame. R in the figure indicates a region recognized as a “right turn prohibition sign”. As shown in FIG. 15, in the case of a video from an in-vehicle camera, since the same sign or the like is generally shown in a plurality of adjacent frames, the recognition result of the same object is displayed in the plurality of adjacent frames. It is output as a position close to the top.
このように,隣接フレーム間で「同一種のオブジェクトでありその画像上の位置の差がある閾値以下」という条件のオブジェクトに対しては,もっとも大きく撮影されている出力結果,すなわち認識結果の画像上の大きさが最大な出力結果を残して,他のフレームにおける認識結果は削除する。一般には,前方に設置された車載カメラの場合,走行に従ってオブジェクトがだんだん大きくなり,最後はフレームアウトしていくため,オブジェクトが撮影されている最終フレームの認識結果が残ることになる。 As described above, for the object having the condition that “the same kind of object and the difference in position on the image is equal to or less than a threshold value” between adjacent frames, the output result captured most greatly, that is, the image of the recognition result. The recognition result in other frames is deleted, leaving the output result having the maximum size. In general, in the case of an in-vehicle camera installed in the front, the object gradually increases as the vehicle travels, and the frame is finally out of the frame, so that the recognition result of the last frame in which the object is photographed remains.
本実施例においては,映像データには緯度・経度といった位置情報が付与されているため,残ったフレーム番号をその位置情報に直すことにより,認識された各オブジェクトの位置(正確に言うと,道路上,そのオブジェクトがもっとも大きく見える位置)が取得できる。このようにして,入力された位置情報付きの映像データに対して,その映像から抽出できる単数または複数のオブジェクトが,そのオブジェクトの位置(正確に言うと,道路上,そのオブジェクトがもっとも大きく見える位置)データと共に出力される。 In this embodiment, since position information such as latitude and longitude is given to the video data, the position of each recognized object (to be precise, road Above, the position where the object looks the largest). In this way, for the input video data with position information, the object or objects that can be extracted from the video is the position of the object (more precisely, the position where the object appears to be the largest on the road). ) Output with data.
また,上記ステップS51における画像認識において,非特許文献1に記載の方法によれば,指定された文字列が含まれる画像の検索を行うことが可能であり,この方法を使うことによって,地名等の特定の文字列が画像上に存在するか否か,存在する場合には画像上のどの位置にあるか,を算出することが可能となる。このため,入力された位置情報付き映像データ60に対して,その映像から抽出できる単数または複数の地名等の文字列が,その文字列の位置(正確に言うと,道路上,その文字列がもっとも大きく見える位置)データと共に出力されるソフトウェアライブラリを構築することができ,そのソフトウェアライブラリによって,データ認識部24を構成することができる。
Further, in the image recognition in step S51, according to the method described in
図16は,認識データ蓄積部25の構成例を示している。認識データ蓄積部25は,撮影された画像の位置を示す緯度経度,オブジェクト種別,画像内のオブジェクト位置,オブジェクトの大きさなどの情報を管理するデータべースマネージメントシステム(DBMS)によって構成される。
FIG. 16 shows a configuration example of the recognition
図17には,前述したデータ認識部24の認識結果を用いたデータ評価部22における有効度算出処理の一例を示している。
FIG. 17 shows an example of the effectiveness calculation process in the
まず,ステップS40〜S42により,映像データより取得できる評価値を求める。ステップS40では,区間映像のフレーム数を,フレーム数に関する有効度Afrとする。ステップS41では,区間映像の解像度,すなわち縦ピクセル数×横ピクセルを,解像度に関する有効度Ares に設定する。同様に,ステップS42では,図11で説明したような各種の有効度Ai を算出する。 First, at steps S40 to S42, an evaluation value that can be acquired from the video data is obtained. In step S40, the number of frames of the section video is set as the effectiveness A fr related to the number of frames. In step S41, the resolution of the section video, that is, the number of vertical pixels × the horizontal pixel is set as the resolution effectiveness Ares . Similarly, in step S42, various effectiveness A i as described in FIG. 11 is calculated.
続いて,ステップS43,S44では,データ認識部24を利用して有効度の評価値を求める。まず,ステップS43では,データ認識部24へカメラワークの認識を依頼し,データ認識部24では,特許文献2に記載されているようなカメラワーク認識技術を用いてカメラワークを検出し,その検出したカメラワークの情報を,データ評価部22に通知する。この結果をもとに,データ評価部22では,カメラワーク安定度に関する有効度Acwを,手ぶれ区間のない区間の割合(非手ぶれ区間率)から算出する。Acwは,次式から算出されることになる。
Subsequently, in steps S43 and S44, an evaluation value of the effectiveness is obtained using the
Acw=100−(手ぶれ区間が区間映像に占める%)
次に,ステップS44では,標識・看板等の認識をデータ認識部24に要求し,その認識結果をもとに,認識結果に関する有効度Arec を算出する。データ認識部24では,上述した特許文献3に記載されているようなオブジェクト認識技術や,非特許文献1に記載されているような文字認識技術を用いて,オブジェクト認識や文字認識を行い,その認識結果をデータ評価部22に通知する。データ評価部22では,画像の位置情報から認識データ蓄積部25に蓄積されている既存の認識結果を検索し,一致した認識結果の個数を算出して,一致した認識結果の個数を認識度に関する有効度Arec とする。
A cw = 100 − (% of the motion picture segment is in the segment video)
Next, in step S44, the
すなわち,データ認識部24では,位置情報付き映像データから前述した認識処理により,標識等のオブジェクトや文字の認識結果を求める。このような認識結果を,やはりDBMSから構成される認識データ蓄積部25に,「どの位置(緯度・経度)にどのような認識データが画像上どのあたりの位置に存在していたか」を保存しておく(図14(B)参照)。データ評価部22から新たなデータが送信された場合には,その新たなデータ上に「同じような位置(=ある閾値範囲内で同一位置)に同じ認識データが存在していたか」をデータ認識部24が検査し,同じ認識ができた個数,すなわち一致した認識結果を有効度Arec として算出する。
That is, the
一般に,計算機による認識が多く成功するためには,画像の品質が高い必要がある。これは逆に言うと,認識が成功する場合の画像の有効度が高いということである。そのため,この値を有効度の評価式の1つとして利用することとしている。なお,認識成功率の高い画像を利用してもなお認識されなくなった(あるいは新たに認識されるようになった)店舗看板,案内標識といったオブジェクトは,実際に街中の経年変化により発生した差異と考えられるので,この認識データ蓄積部25には,このようなオブジェクトに関する最新の情報も保持されることになる。
In general, high image quality is required for many computer recognitions to succeed. In other words, the effectiveness of the image when recognition is successful is high. Therefore, this value is used as one of the evaluation formulas for effectiveness. It should be noted that objects such as store signboards and information signs that are still not recognized (or newly recognized) even when using images with a high recognition success rate are actually differences caused by secular changes in the city. Therefore, the recognition
その後,ステップS45では,トータルの有効度Aを,次式により算出する。 Thereafter, in step S45, the total effectiveness A is calculated by the following equation.
A=ΣCi ×Ai
ただし,Ci は,有効度Afr,Ares ,…,Acw,Arec のそれぞれの評価項目に対するあらかじめ定められた加重係数Cfr,Cres ,…,Ccw,Crec である。
A = ΣC i × A i
However, C i is the effective index A fr, A res, ..., A cw, A respective evaluation predetermined weighting factor C fr for items of rec, C res, ..., a C cw, C rec.
以上の画像蓄積装置が行う処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。 The processing performed by the above image storage device can be realized by a computer and a software program, and the program can be recorded on a computer-readable recording medium or provided through a network.
10 撮影端末
11 撮影部
12 位置情報取得部
13 端末蓄積部
14 端末データ送信部
20 データ処理サーバ
21 サーバデータ受信部
22 データ評価部
23 画像データ蓄積部
24 データ認識部
25 認識データ蓄積部
30 データ中継器
31 アクセスポイントデータ受信部
32 アクセスポイントデータ送信部
DESCRIPTION OF
Claims (9)
映像データとその映像データに対応付けられた撮影位置を示す位置データとを含むデータを,前記撮影端末から受信するサーバデータ受信部と,
映像データに対応付けられた位置データを利用して,受信した映像データのフレームの位置をマッピングし,予め区切られた道路区間に対応するように当該映像データを分割して単位映像データを得る手段と,
前記単位映像データと,その単位映像データに対して所定の評価式によって算出されたデータの有効度の値とを蓄積する画像データ蓄積部と,
前記サーバデータ受信部により前記撮影端末からデータを受信したときに,受信したデータから得られる新しい単位映像データごとに,既に同じ道路区間で撮影された単位映像データが前記画像データ蓄積部に蓄積されている場合には,前記新しい単位映像データについて前記所定の評価式に従ってそのデータの有効度の値を算出し,蓄積されているデータの有効度の値との大小比較によって,前記画像データ蓄積部に蓄積されている単位映像データとそのデータの有効度の値とを前記新しい単位映像データとそのデータの有効度の値とで更新するかどうかを決定するデータ評価部とを備える
ことを特徴とする画像蓄積装置。 An image storage device that receives and stores video shot by a shooting terminal,
A server data receiving unit for receiving data including video data and position data indicating a shooting position associated with the video data from the shooting terminal;
Means for mapping the position of the frame of the received video data using the position data associated with the video data, and dividing the video data so as to correspond to the road section divided in advance to obtain unit video data When,
An image data storage unit for storing the unit video data and a value of the validity of the data calculated by a predetermined evaluation formula for the unit video data;
Wherein when data is received from the imaging device by the server data receiver, for each new unit video data obtained from the received data, stored previously in the unit image data is the image data storage section taken at the same road section If the new unit video data , the image data storage unit calculates the value of the validity of the data according to the predetermined evaluation formula, and compares the value with the value of the validity of the stored data. and characterized in that it comprises a unit video data stored to the the value of the effectiveness of the data and the new unit video data and the data evaluation unit that determines whether to update with a value of effectiveness of the data to Image storage device.
前記データ評価部が用いる評価式は,
前記データの有効度の値が,前記単位映像データのフレーム数が大きいほど大きくなる評価式,もしくは前記単位映像データの解像度が大きいほど大きくなる評価式,もしくは前記単位映像データに含まれるピクセルの明度の平均値が大きいほど大きくなる評価式,もしくは前記単位映像データにおける各フレームの明度差の平均値が大きいほど大きくなる評価式,もしくは撮影日時が新しいほど大きくなる評価式,もしくは所定の方法で算出された蓄積対象の映像区間中の非手ぶれ区間率が大きいほど大きくなる評価式,またはこれらの評価式のうち複数を組み合わせた評価式を含む
ことを特徴とする画像蓄積装置。 The image storage device according to claim 1,
The evaluation formula used by the data evaluation unit is:
The value of the effectiveness of the data, the brightness of the frame number is large enough larger evaluation formula unit video data, or an evaluation formula increases the greater the resolution of the unit video data, or pixels included in the unit image data An evaluation formula that increases as the average value increases, or an evaluation formula that increases as the average value of the brightness difference of each frame in the unit video data increases, or an evaluation formula that increases as the shooting date is new, or a predetermined method. An image storage apparatus comprising: an evaluation formula that increases as the non-blurring section ratio in the stored video segment increases, or an evaluation formula that combines a plurality of these evaluation formulas.
前記撮影端末から受信したデータ内の映像データに写っているオブジェクトを認識するデータ認識部と,
前記データ認識部が認識した認識結果を蓄積する認識データ蓄積部とをさらに備え,
前記データ評価部は,
前記データの有効度の値の算出において前記認識データ蓄積部に蓄積された認識結果を利用し,認識率が大きいほどデータの有効度の値が大きくなる評価式を用いてデータの有効度の値を算出する
ことを特徴とする画像蓄積装置。 The image storage device according to claim 1 or 2,
A data recognition unit for recognizing an object reflected in video data in the data received from the photographing terminal;
A recognition data storage unit for storing a recognition result recognized by the data recognition unit,
The data evaluation unit
In the calculation of the data validity value, the recognition result stored in the recognition data storage unit is used, and the data validity value is calculated using an evaluation formula in which the data validity value increases as the recognition rate increases. An image accumulating device characterized by:
前記データ評価部は,
前記画像データ蓄積部に蓄積する同じ道路区間で撮影された単位映像データの個数を最大n個(ただし,nは1以上の整数)とし,前記受信したデータの有効度の値が,前記画像データ蓄積部に蓄積されている同じ道路区間で撮影された単位映像データを含むデータの有効度のn番目に大きい値より大きい場合に,その蓄積されているデータのうち最もデータの有効度の小さいデータを削除して前記受信したデータから得られる単位映像データを前記画像データ蓄積部に保存し,小さい場合に,前記受信したデータから得られる単位映像データを前記画像データ蓄積部に蓄積しないで棄却する
ことを特徴とする画像蓄積装置。 In the image storage device according to any one of claims 1 to 3,
The data evaluation unit
The maximum number of unit video data shot in the same road section stored in the image data storage unit is n (where n is an integer of 1 or more), and the validity value of the received data is the image data. Data having the smallest data validity among the accumulated data when the validity is greater than the nth largest value of the data including unit video data shot in the same road section accumulated in the accumulation unit. The unit video data obtained from the received data is saved in the image data storage unit, and the unit video data obtained from the received data is rejected without being stored in the image data storage unit when the data is small An image storage device characterized by that.
前記データ評価部は,
前記画像データ蓄積部に,道路区間ごとの単位映像データを保存するときに,前記道路区間の上り方向と下り方向とを区別しないで同じ道路区間であるか否かを判断する
ことを特徴とする画像蓄積装置。 In the image storage device according to any one of claims 1 to 4,
The data evaluation unit
In the image data storage unit, when storing the unit image data for each road section, characterized by determining whether the same road section without distinguishing between uplink and downlink direction of the road section Image storage device.
前記データ評価部は,
異なる時間帯,曜日,期日または期間に撮影された単位映像データについては,別々に前記データの有効度の値の算出およびデータの有効度の値の大小比較を行う
ことを特徴とする画像蓄積装置。 In the image storage device according to any one of claims 1 to 5,
The data evaluation unit
An image storage device characterized in that, for unit video data shot at different time periods, days of the week, due dates, or periods, the validity value of the data is calculated separately and the magnitudes of the validity values of the data are compared separately .
前記撮影端末は,
映像を撮影する撮影部と,
撮影時の位置情報を取得する位置取得部と,
前記撮影された映像データと前記取得された位置データとを対応付けて蓄積する端末蓄積部と,
前記端末蓄積部に蓄積されたデータを前記画像蓄積装置へ送信する端末送信部とを備え,
前記画像蓄積装置は,
映像データとその映像データに対応付けられた撮影位置を示す位置データとを含むデータを,前記撮影端末から受信するサーバデータ受信部と,
映像データに対応付けられた位置データを利用して,受信した映像データのフレームの位置をマッピングし,予め区切られた道路区間に対応するように当該映像データを分割して単位映像データを得る手段と,
前記単位映像データと,その単位映像データに対して所定の評価式によって算出されたデータの有効度の値とを蓄積する画像データ蓄積部と,
前記サーバデータ受信部により前記撮影端末からデータを受信したときに,受信したデータから得られる新しい単位映像データごとに,既に同じ道路区間で撮影された単位映像データが前記画像データ蓄積部に蓄積されている場合には,前記新しい単位映像データについて前記所定の評価式に従ってそのデータの有効度の値を算出し,蓄積されているデータの有効度の値との大小比較によって,前記画像データ蓄積部に蓄積されている単位映像データとそのデータの有効度の値とを前記新しい単位映像データとそのデータの有効度の値とで更新するかどうかを決定するデータ評価部とを備える
ことを特徴とする画像蓄積システム。 An image storage system comprising a photographing terminal and an image accumulating device for accumulating images photographed by the photographing terminal,
The photographing terminal is
A shooting section for shooting images ;
A position acquisition unit for acquiring position information at the time of shooting;
A terminal storage unit that stores the captured video data and the acquired position data in association with each other;
A terminal transmission unit for transmitting data stored in the terminal storage unit to the image storage device;
The image storage device includes:
A server data receiving unit for receiving data including video data and position data indicating a shooting position associated with the video data from the shooting terminal;
Means for mapping the position of the frame of the received video data using the position data associated with the video data, and dividing the video data so as to correspond to the road section divided in advance to obtain unit video data When,
An image data storage unit for storing the unit video data and a value of the validity of the data calculated by a predetermined evaluation formula for the unit video data;
Wherein when data is received from the imaging device by the server data receiver, for each new unit video data obtained from the received data, stored previously in the unit image data is the image data storage section taken at the same road section If the new unit video data , the image data storage unit calculates the value of the validity of the data according to the predetermined evaluation formula, and compares the value with the value of the validity of the stored data. and characterized in that it comprises a unit video data stored to the the value of the effectiveness of the data and the new unit video data and the data evaluation unit that determines whether to update with a value of effectiveness of the data to Image storage system.
前記撮影端末と前記画像蓄積装置との間に,
前記撮影端末からのデータを無線LANインタフェースにより受信するアクセスポイントデータ受信部と,
受信したデータを前記画像蓄積装置に送信するアクセスポイントデータ送信部とからなるデータ中継器を備える
ことを特徴とする画像蓄積システム。 The image storage system according to claim 8,
Between the photographing terminal and the image storage device,
An access point data receiving unit for receiving data from the photographing terminal through a wireless LAN interface;
An image storage system comprising: a data repeater including an access point data transmission unit that transmits received data to the image storage device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008216121A JP4995787B2 (en) | 2008-08-26 | 2008-08-26 | Image storage device, program for image storage device, and image storage system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008216121A JP4995787B2 (en) | 2008-08-26 | 2008-08-26 | Image storage device, program for image storage device, and image storage system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010055138A JP2010055138A (en) | 2010-03-11 |
JP4995787B2 true JP4995787B2 (en) | 2012-08-08 |
Family
ID=42071036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008216121A Expired - Fee Related JP4995787B2 (en) | 2008-08-26 | 2008-08-26 | Image storage device, program for image storage device, and image storage system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4995787B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018088425A1 (en) | 2016-11-10 | 2018-05-17 | 日本電信電話株式会社 | Image evaluation device, image evaluation method, and image evaluation program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6959024B2 (en) * | 2017-03-24 | 2021-11-02 | パイオニア株式会社 | Information processing device |
JP7059881B2 (en) * | 2018-10-04 | 2022-04-26 | トヨタ自動車株式会社 | Image processing equipment, image processing methods, and programs |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07123348A (en) * | 1993-10-28 | 1995-05-12 | Nippon Telegr & Teleph Corp <Ntt> | Image pickup device with position measuring mechanism |
JP2000047579A (en) * | 1998-07-30 | 2000-02-18 | Nippon Telegr & Teleph Corp <Ntt> | Map data base updating device |
JP3469122B2 (en) * | 1999-03-10 | 2003-11-25 | 日本電信電話株式会社 | Video segment classification method and apparatus for editing, and recording medium recording this method |
US6819795B1 (en) * | 2000-07-07 | 2004-11-16 | Fuji Xerox Co., Ltd. | Genetic segmentation method for data, such as image data streams |
EP2003611A2 (en) * | 2006-03-31 | 2008-12-17 | Olympus Corporation | Information presentation system, information presentation terminal, and server |
JP2007304738A (en) * | 2006-05-10 | 2007-11-22 | Viva Computer Co Ltd | Image storage/retrieval system, image storage device and image retrieval device for the system, and program |
JP2007328503A (en) * | 2006-06-07 | 2007-12-20 | Nec Corp | Document information management system and document information management method |
-
2008
- 2008-08-26 JP JP2008216121A patent/JP4995787B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018088425A1 (en) | 2016-11-10 | 2018-05-17 | 日本電信電話株式会社 | Image evaluation device, image evaluation method, and image evaluation program |
US11042771B2 (en) | 2016-11-10 | 2021-06-22 | Nippon Telegraph And Telephone Corporation | Image evaluation device, image evaluation method, and image evaluation program |
EP4002832A1 (en) | 2016-11-10 | 2022-05-25 | Nippon Telegraph And Telephone Corporation | Image evaluation device, image evaluation method and image evaluation program |
US11710226B2 (en) | 2016-11-10 | 2023-07-25 | Nippon Telegraph And Telephone Corporation | Image evaluation device, image evaluation method, and image evaluation program |
Also Published As
Publication number | Publication date |
---|---|
JP2010055138A (en) | 2010-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9286545B1 (en) | System and method of using images to determine correspondence between locations | |
US11481991B2 (en) | System and method for detecting and transmitting incidents of interest of a roadway to a remote server | |
US8274571B2 (en) | Image zooming using pre-existing imaging information | |
US8094974B2 (en) | Picture data management apparatus and picture data management method | |
KR101423928B1 (en) | Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method. | |
US9286624B2 (en) | System and method of displaying annotations on geographic object surfaces | |
US10191635B1 (en) | System and method of generating a view for a point of interest | |
US9195987B2 (en) | Systems and methods of correlating business information to determine spam, closed businesses, and ranking signals | |
CN101874195B (en) | Map display device, map display method, and imaging device | |
US9672223B2 (en) | Geo photo searching based on current conditions at a location | |
CN111221012A (en) | Method and apparatus for improved location decision based on ambient environment | |
US8488021B2 (en) | Image positioning method, POI tagging method and the apparatus | |
US20150278878A1 (en) | System and method of displaying advertisements | |
JP2009003415A (en) | Method and device for updating map data | |
US20120259545A1 (en) | System and method for providing an electronic representation of a route | |
JPWO2007116500A1 (en) | Information presentation system, information presentation terminal and server | |
US8373712B2 (en) | Method, system and computer-readable recording medium for providing image data | |
JP4995787B2 (en) | Image storage device, program for image storage device, and image storage system | |
CN103729409A (en) | Method and device for generating visual scene information | |
US20160171004A1 (en) | Method and system for improving the location precision of an object taken in a geo-tagged photo | |
US9201498B2 (en) | Information display system, information display apparatus and non-transitory storage medium | |
JP4685286B2 (en) | Information update processing device | |
US10331733B2 (en) | System and method for presenting condition-specific geographic imagery | |
CN112106135B (en) | Information collecting device | |
JP2019174989A (en) | Image compression method and image compression device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100331 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111213 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120510 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |