JP2008287379A - Road sign data input system - Google Patents

Road sign data input system Download PDF

Info

Publication number
JP2008287379A
JP2008287379A JP2007129999A JP2007129999A JP2008287379A JP 2008287379 A JP2008287379 A JP 2008287379A JP 2007129999 A JP2007129999 A JP 2007129999A JP 2007129999 A JP2007129999 A JP 2007129999A JP 2008287379 A JP2008287379 A JP 2008287379A
Authority
JP
Japan
Prior art keywords
sign
recognition
image
road
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007129999A
Other languages
Japanese (ja)
Inventor
Shigeru Shimada
茂 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007129999A priority Critical patent/JP2008287379A/en
Publication of JP2008287379A publication Critical patent/JP2008287379A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce time and work for constructing database by extracting sign information (a classification and a position) from road image data photographed by a measuring vehicle. <P>SOLUTION: By starting functions to recognize a sign and to calculate the position to be surveyed from a menu of an interactive recognition and edit system, and performing recognition processing before editing to display an evaluation of a sign candidate to an icon size on a map, a place where a sign is recognized can be easily confirmed and an interface configuration that is not affected by erroneous recognition by survey calculation can reduce the number of processes of an operator. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カーナビゲーションシステムやITS(Intelligent Transfer System)において必要とする道路標識データベースの構築分野に係わり、特に車載カメラから撮像された道路影像から標識情報を抽出するのに、自動認識結果の確認と誤認識結果の修正を行なう工程の負荷を軽減するためのインタフェース技術に関する。   The present invention relates to the field of construction of road sign databases required for car navigation systems and ITS (Intelligent Transfer System), and in particular, for extracting sign information from road images captured from in-vehicle cameras, confirmation of automatic recognition results And an interface technology for reducing the load of the process of correcting the erroneous recognition result.

本来、道路標識は道路や交差点に設置されているが、その道路標識と同等の情報を車載端末に表示したり音声による注意喚起したりすることにより、ドライバーの安全運転や事故防止を支援するシステムの要求が高まっている。そのためには、道路標識の種類とその設置場所を関係つけた標識情報を獲得する必要がある。   Road signs are originally installed on roads and intersections, but a system that supports the driver's safe driving and accident prevention by displaying information equivalent to that road sign on the in-vehicle terminal and alerting by voice The demand is growing. For this purpose, it is necessary to acquire sign information that associates the type of road sign with its location.

道路や交差点に設置される道路標識には、車両の速度制限や進入禁止及び駐車禁止等の交通規制を提示するものと、交差点名称や方面行き先名称など案内情報を提示するものがある。この中で、前者の交通規制を提示する交通標識には、交通規制を指示するための定型的な指示情報、例えば速度制限(赤縁丸に速度数値)や駐車禁止(赤丸に白一線)や進行方向指示(矢印)など、を示すことを目的としているため、標識の種類としては60〜80パターン程度の有限個である。従来このような交通規制を示す道路標識を対象にして、車載の静止画カメラやビデオカメラの撮影影像を用いて標識の種類を自動的に認識する技術が数多く発表されている。例えば文献1では、道路標識が特定の色(赤・青・黄・緑・黒・白)で特定のパターンを持って記述されていることから、特定色のカラー分離と特定の形状(赤縁丸)に着目した画像認識技術が開発されている。又文献2では、色分離認識に太陽照度の影響が作用しないように色分離クラスタ閾値を最適に決定する方式が提案されている。更に文献3では車載カメラの影像から標識を高速に認識するためのスリット領域を設けた部分的領域を対象とする認識高速化方式が出願されている。   Road signs installed on roads and intersections include those that present traffic regulations such as vehicle speed restrictions, entry prohibitions, and parking prohibitions, and those that present guidance information such as intersection names and destination names. Among them, the traffic signs that show the former traffic regulations include standard instruction information for instructing traffic regulations, such as speed limit (speed value in red circle), parking prohibition (white line in red circle), Since the purpose is to indicate a direction of travel (arrow) or the like, the number of signs is limited to about 60 to 80 patterns. Conventionally, a number of technologies for automatically recognizing the type of sign using a photographed image of an in-vehicle still image camera or video camera for a road sign indicating such traffic regulation have been announced. For example, in Document 1, since road signs are described in specific colors (red, blue, yellow, green, black, white) with specific patterns, color separation of specific colors and specific shapes (red edges) Image recognition technology focusing on (circle) has been developed. Reference 2 proposes a method for optimally determining a color separation cluster threshold so that the influence of solar illuminance does not act on color separation recognition. Further, Document 3 has applied for a recognition speed-up method for a partial area provided with a slit area for recognizing a sign from an on-vehicle camera image at high speed.

これらの画像認識技術を用いたリアルタイムの標識情報獲得方式を、車載システムの観点から捉えると、認識率が実用レベル(例えば95%以上)に達するのが難しく、何らかの人為的な判断や修正を要するため、必ずしも車載システムとして実用化されているわけではない。その代わりに、道路の撮影影像データと位置測位データとを計測車両のストレージに一旦蓄積してデータ入力センターに持ち帰り、バッチ的に入力編集することにより標識データベースとして構築し、カーナビゲーションシステムにそのデータベースを提供する方式が採られることが多い。このような標識データベースを構築する観点からは、最初からオペレータによる手動の入力方式を用いるのとインタフェース的には類似しているため、データベース構築のための編集機能の一部として認識機能を組み込むことが多く、これらのシステムを対話型認識編集システムと呼んでいる。   If the real-time sign information acquisition method using these image recognition technologies is viewed from the viewpoint of in-vehicle systems, it is difficult for the recognition rate to reach a practical level (for example, 95% or more), and some human judgment or correction is required. Therefore, it is not necessarily put into practical use as an in-vehicle system. Instead, the captured image data of the road and the positioning data are temporarily stored in the storage of the measurement vehicle, taken back to the data input center, and built as a sign database by batch input editing, and the database is stored in the car navigation system. The method of providing From the point of view of constructing such a sign database, it is similar in interface to using a manual input method by an operator from the beginning, so a recognition function is incorporated as part of the editing function for database construction. Many of these systems are called interactive recognition editing systems.

内村、他2:道路情景カラー画像における円形道路標識の抽出及び認識、電子情報通信学会論文誌AVol.J81-A-4, 1998Uchimura, et al. 2: Extraction and recognition of circular road signs in road scene color images, IEICE Transactions AVol.J81-A-4, 1998 莫、他1:カラー画像における道路標識の認識、電子情報通信学会論文誌 Vol.J87-D-II,No.12, 2004H. et al. 1: Recognition of road signs in color images, IEICE Transactions Vol.J87-D-II, No. 12, 2004 リンクス画像システム事業部編:HALCON活用法、(株)リンクス出版事業部, 2004Links Image Systems Division: How to use HALCON, Links Publishing Division, 2004 特開2000-293670号公報JP 2000-293670 A 特開2003-123197号公報JP 2003-123197 A

道路や交差点に設置される道路標識は、新規道路の開通に伴う新設や道路改修に伴う移設や事故や自然災害などによる消失が繰り返されている。新設の道路に関しては、道路設計図に道路標識の位置と種別が記載されているので、道路管理局などに納入された新設道路の設計図から標識情報を抽出して道路標識データベースを作成することは比較的容易と考えられるが、道路改修に伴う道路標識の変更は必ずしも総合的な設計図面として納入されないため、設計図からのデータベース構築は困難と判断される。又事故や自然災害などによる消失の場合には、必ずしも元の位置に同一種類の標識が設置しなおされる保証はない。そのため、道路標識データベースを作成するためには、道路に設置されている道路標識を実際に調査してその新設や変更された標識情報(標識の種別と位置情報)を得なければならない。   Road signs installed on roads and intersections have been repeatedly lost due to new establishments associated with the opening of new roads, relocations associated with road improvements, accidents, and natural disasters. For new roads, the location and type of road signs are described in the road design drawings, so the road sign database should be created by extracting the sign information from the new road design drawings delivered to the Road Administration Bureau, etc. However, it is judged that it is difficult to construct a database from the design drawing because the change of the road sign accompanying the road improvement is not necessarily delivered as a comprehensive design drawing. In case of loss due to an accident or natural disaster, there is no guarantee that the same kind of sign will be re-installed at the original position. Therefore, in order to create the road sign database, it is necessary to actually investigate the road signs installed on the road and obtain the new or changed sign information (type and position information of the signs).

この調査作業を少しでも軽減するため、ビデオカメラと高精度位置センサーを搭載した計測車両を構成し、その車両の道路の走行とビデオ撮影・位置計測によるデータの蓄積とその撮影データの解析により、道路標識の情報を得る方式が開発されている。標識データベースを構築する作業の多くは、道路標識の種類が多い上にそのサイズが異なることから、オペレータによる撮影データの調査とその種類の判断と位置計測データ(多くの場合は計測車両に搭載されるステレオカメラによる計測等が使われる)との関係付け操作が行なわれる。このようなオペレータの操作は、計測車両の中でリアルタイムに行なうことができないので、計測車両によるデータ蓄積工程とオペレータによる編集工程とは別に行なわれることが多い。標識データベースの構築コストの大部分はこのオペレータの編集工程コストであるいっても過言ではなく、その工数の低減が問題になっている。   In order to reduce this survey work as much as possible, a measurement vehicle equipped with a video camera and a high-accuracy position sensor was constructed, and by accumulation of data by road traveling of the vehicle and video shooting / position measurement and analysis of the shooting data, A method for obtaining road sign information has been developed. Most of the work to construct a sign database is because there are many types of road signs and their sizes are different, so the operator can investigate the shooting data, determine the type, and position measurement data (often installed in measurement vehicles). (Such as measurement using a stereo camera). Since such an operator's operation cannot be performed in real time in the measurement vehicle, the data storage step by the measurement vehicle and the editing step by the operator are often performed separately. It is not an exaggeration to say that most of the construction cost of the sign database is the editing process cost of the operator, and the reduction of man-hours has become a problem.

このような工数削減に最も効果的なのが、撮影データを対象にした自動的な標識認識の導入であり、その場合の工数低減の鍵となるのが標識認識の精度である。標識認識には各種の画像認識アルゴリズムが提案されており、既に示した文献1,2,3にはその標識の画像認識方式に関するアルゴリズムが詳細に記述されている。しかしこのような標識認識には、必ず認識見逃しや認識誤りが含まれる。従って、たとえ高精度の画像認識機能が用いられてとしても認識率は100%にはならないため、必ずオペレータによる認識結果の確認作業が発生する。しかもその操作は冗長で、撮像された長大な画像列の中から標識が現れているシーンを見つけ出し、認識されたそれぞれの結果が正しいかどうかを確かめていかなくてはならない。   The most effective way to reduce the number of man-hours is the introduction of automatic sign recognition for photographing data, and the key to reducing man-hours in that case is the accuracy of sign recognition. Various image recognition algorithms have been proposed for the sign recognition, and the literatures 1, 2, and 3 already described describe in detail algorithms related to the sign image recognition method. However, such sign recognition always includes a recognition miss and a recognition error. Therefore, even if a high-accuracy image recognition function is used, the recognition rate does not reach 100%, so an operator must confirm the recognition result. In addition, the operation is redundant, and it is necessary to find out a scene where a sign appears from a long captured image sequence, and to check whether each recognized result is correct.

計測車両から提供される撮像データには、たとえ1つの標識であっても複数の観測地点において撮像された画像列に出現するため、同一の標識に対して複数の認識結果が得られることになる。しかもその標識の認識精度は、その画像列に出現する標識の大きさ及び太陽光や影の影響に依存する。このような状況下で、標識データ入力のオペレータ操作を考えると、認識結果そのものの確認の前に、画像列のどの部分に標識が出現するのかを調べるのに長大な時間と工数を必要とすることが予想される。又、認識結果を地図上の測量位置に配置して表示し、その結果の良否を確認させるインタフェース方法も考えられるが、もし誤認識を起こしている場合にはその場所をみつけるのだけでなく、誤認識を引き起こしている画像の位置と原因を把握して認識結果に矛盾がないよう修正するのに多大なオペレータ工数を要する問題が発生する。   In the imaging data provided from the measurement vehicle, even if it is one sign, it appears in an image sequence picked up at a plurality of observation points, so that a plurality of recognition results can be obtained for the same sign. . Moreover, the recognition accuracy of the sign depends on the size of the sign appearing in the image sequence and the influence of sunlight or shadow. Considering the operator operation for inputting the sign data under such circumstances, it takes a long time and man-hour to check in which part of the image sequence the sign appears before confirming the recognition result itself. It is expected that. In addition, an interface method that arranges and displays the recognition result at the survey position on the map and confirms the quality of the result is also conceivable, but if misrecognition occurs, not only find the place, There arises a problem that requires a great number of man-hours for grasping the position and cause of the image causing the erroneous recognition and correcting the recognition result so that there is no contradiction.

本発明は、このような問題を解決させるために考案されたもので、計測車両で撮影される画像データ列を対象にした標識認識の工程を標識出現予測認識と標識識別認識との2つの工程に分けて行い、オペレータには前段の標識出現予測認識の結果を用いた対話操作から開始して、後段の標識識別認識を動作させてその結果を確認する方式を提案するものである。上述したように、1つの標識に対して複数の撮影位置においてその標識が出現する画像列が提供されるので、同一の標識に対して複数の認識結果が得られることになる。しかもその認識精度は画像に現れる標識の大きさや太陽光などの撮影条件に依存するため、同一の標識に対して異なった認識結果となる可能性が高くなる。そこで、標識の特徴抽出を主体に構成した標識出現予測認識を行なうことにより、長大な画像列の中で標識が出現している部分とそうでない部分との区分けを行なう。その場合、特徴量の評価値の大きさに応じてランク付けを行い、オペレータ操作は最もランクの大きい位置から開始し、標識識別操作を対話メニューから起動させてその認識結果を確認するような構成とする。   The present invention has been devised to solve such a problem, and the label recognition process for the image data sequence photographed by the measurement vehicle is divided into two processes, that is, the sign appearance prediction recognition and the sign identification recognition. The operator proposes a method of starting from a dialog operation using the result of the preceding sign appearance prediction recognition and operating the subsequent sign identification recognition to confirm the result. As described above, since an image sequence in which a sign appears at a plurality of shooting positions is provided for one sign, a plurality of recognition results can be obtained for the same sign. Moreover, since the recognition accuracy depends on the size of the sign appearing in the image and the photographing conditions such as sunlight, the possibility of different recognition results for the same sign increases. Therefore, by performing sign appearance prediction recognition mainly composed of sign feature extraction, a part where a sign appears in a long image sequence is distinguished from a part where it does not. In such a case, the ranking is performed according to the evaluation value of the feature value, the operator operation is started from the position with the highest rank, and the recognition result is confirmed by starting the label identification operation from the dialogue menu. And

更にこの標識出現予測認識の結果をオペレータに表示するためのインタフェースとして、その予測出現率を特徴量の評価値のランク付けに応じた大きさを持つ記号(例えば評価値に応じた半径を持つ円など)や表示色を持って提示することにより、最も高い認識率を期待できる標識撮影の位置をオペレータから容易に確認できるようにする。又この予測認識の確認の後に連続して行なわれる標識識別認識の効率を上げるため、標識出現予測位置、そのランク値、及びその標識識別認識の結果とが対応して分かるようにリスト表示して関連操作が容易となるようなインタフェースを設ける。   Furthermore, as an interface for displaying the result of the sign appearance prediction recognition to the operator, the predicted appearance rate is expressed by a symbol having a size corresponding to the ranking of the evaluation value of the feature amount (for example, a circle having a radius corresponding to the evaluation value). Etc.) and the display color so that the operator can easily confirm the position of the sign photographing where the highest recognition rate can be expected. In addition, in order to increase the efficiency of marker identification recognition performed continuously after the confirmation of the prediction recognition, a list display is made so that the predicted marker appearance position, its rank value, and the result of the marker identification recognition can be understood correspondingly. Provide an interface that facilitates related operations.

このようなインタフェース方式により、計測車両の車載カメラからの画像系列を対象にして、標識が画像上に出現する位置を事前に知ることができるため、標識データの編集入力を行なうオペレータはその予測ランク値の高い部分を注目して、標識識別処理を行なえばよいことになり、編集効率時間が短縮できる外に認識処理時間も削減できることになる。従って識データ工程は、大幅なデータ入力コストの削減が見込まれる。   With such an interface method, it is possible to know in advance the position where the sign appears on the image for the image series from the in-vehicle camera of the measurement vehicle. It is only necessary to perform the marker identification process while paying attention to the part having a high value. In addition to the reduction in the editing efficiency time, the recognition processing time can also be reduced. Therefore, the knowledge data process is expected to greatly reduce the data input cost.

本発明を実施するための一形態である標識データ入力システムの全体構成を図1に示す。本システムは以下の構成を有する。まず、標識データの認識や修正及びデータベース登録管理などを行なう中央処理装置(1)を中心に、オペレータの操作を指示するためのキーボードやマウス等で構成される指示装置(2)、及びそのオペレータが操作する途中経過や結果を表示して確認するための表示装置(3)がこの中央処理装置に接続された構成とする。そして、この中央処理装置が処理の対象とするのは、計測車両から提供される各種の測定データ(4)であり、又処理の出力とするのは、出力データ(5)である。   FIG. 1 shows the overall configuration of a sign data input system which is an embodiment for carrying out the present invention. This system has the following configuration. First, a central processing unit (1) that performs recognition and correction of marker data and database registration management, etc., and a pointing device (2) composed of a keyboard and a mouse for instructing operator operations, and the operator It is assumed that a display device (3) for displaying and confirming the progress and result of the operation is connected to the central processing unit. The central processing unit is subject to processing of various measurement data (4) provided from the measuring vehicle, and the processing output is output data (5).

次に、中央処理装置のハードウエア構成としてはパーソナルコンピュータやワークステーションのCPUを中心としたメモリやストレージを備えた一般の計算機の構成でよいが、その内部のソフトウエア構成としては次のような処理部分により構成されるとする。計測車両の車載カメラからの影像を対象にして画面内に存在する標識部分を自動認識する標識認識部(10)、それらの標識認識された複数の画像を用いて標識位置を計算する測量計算部(11)、表示画面と指示装置を用いて対話的に処理対象領域を編集してこれらの処理を適用したり不具合部分を修正したりするための対話型編集入力部(12)、上記の処理系で必要な計測車両から提供される画像の管理や処理により得られた標識データを登録管理するデータベース管理部(13)、及びデータベース(14)、計測車両測定データをデータベースへ入力するためのデータ変換を行なうDB入力変換部(15)、及びデータベースの内容を外部環境へ出力するためのデータ変換を行なうDB出力部(16)で構成される。   Next, the hardware configuration of the central processing unit may be the configuration of a general computer equipped with a memory and storage centered on the CPU of a personal computer or workstation, but the internal software configuration is as follows: It is assumed that the processing part is configured. A sign recognition unit (10) that automatically recognizes the sign part existing in the screen for the image from the in-vehicle camera of the measurement vehicle, and a survey calculation part that calculates the sign position using a plurality of these recognized signs (11) Interactive editing input unit (12) for interactively editing the processing target area using the display screen and the pointing device and applying these processes or correcting the defective part, the above process Database management unit (13) for registering and managing the sign data obtained from the management and processing of images provided by the measurement vehicle required by the system, the database (14), and data for inputting measurement vehicle measurement data to the database A DB input conversion unit (15) that performs conversion, and a DB output unit (16) that performs data conversion for outputting the contents of the database to the external environment.

中央処理装置(1)は汎用のコンピュータであり、DB入力、標識認識、測量計算、対話型編集入力、データベース管理、DB出力などの処理を行う。なお、この装置が外部と通信する機能を持っている場合、対話型編集入力部で行う処理以外の部分(10,11,12,13,14,15,16)は遠隔地にあるサーバなどで行うようにしてもよい。その場合、高性能なコンピュータで処理を行うことにより、対話編集処理部でのシステム応答を高速にすることが可能である。又対話型編集入力部が使用するデータの一部を対象にしたデータベースの管理をサーバ部と多重化させることにより、更に高速なる処理速度が得られるが、これらのシステム構成は上記の2つの形式に限定されるものではない。   The central processing unit (1) is a general-purpose computer and performs processing such as DB input, sign recognition, survey calculation, interactive editing input, database management, DB output, and the like. If this device has a function to communicate with the outside, parts other than the processing performed by the interactive editing input unit (10, 11, 12, 13, 14, 15, 16) are performed by a server at a remote location. You may make it perform. In that case, it is possible to speed up the system response in the dialog editing processing unit by performing processing with a high-performance computer. Further, by multiplexing the database management for a part of the data used by the interactive edit input unit with the server unit, a higher processing speed can be obtained, but these system configurations have the above two formats. It is not limited to.

上記システム構成における標識認識から対話型編集入力を経て標識データをデータベースへ登録するまでの一連の流れを、図2を用いて説明する。標識認識部(10)では、最初に色信号を色信号変換処理にてRGB信号系から人間の色彩感覚に近いHSI信号系に変換する(110)。その変換方法は、非特許文献2に示されているように、R(Red),G(Green),B(Blue)信号から、色相(Hue;色の違い),彩度(Saturation;色の濃さ),明度(Intensity;明度)信号系に変換することにあり、詳細な変換式は文献の通りなのでここでは省略する。次に色認識とノイズ除去処理(110)により、標識で使われている色成分(赤・青・緑・黄・白・黒)を、明度別に異なったバンド幅を持った閾値処理により抽出すると共に、その色成分を含む領域の周辺に付帯するノイズ成分を除去する。このようにして得られた標識画像を構成する画像成分を用いて、標識を形成する領域を外接長方形として抽出する候補領域抽出処理(120)を行なう。この外接長方形として標識候補が抽出できた領域には、標識候補領域として外接長方形の枠をなす図形を認識対象の画像の上に目立つ色(例えば黄色等)で重畳表示しておくものとする。   A series of flow from the sign recognition to the sign data registration in the database through interactive editing input in the system configuration will be described with reference to FIG. The sign recognition unit (10) first converts a color signal from an RGB signal system to an HSI signal system close to human color sense by color signal conversion processing (110). As shown in Non-Patent Document 2, the conversion method is based on R (Red), G (Green), and B (Blue) signals, and the hue (Hue; difference in color), saturation (Saturation; color It is to be converted to a signal system of density) and lightness (Intensity), and detailed conversion formulas are as described in the literature, so they are omitted here. Next, color components (red, blue, green, yellow, white, black) used in signs are extracted by threshold processing with different bandwidths according to brightness by color recognition and noise removal processing (110). At the same time, noise components attached to the periphery of the area including the color component are removed. Using the image components constituting the sign image thus obtained, candidate area extraction processing (120) is performed for extracting the area forming the sign as a circumscribed rectangle. It is assumed that a figure that forms a circumscribed rectangle frame as a marker candidate region is superimposed and displayed in a conspicuous color (for example, yellow) on the recognition target image in the region where the marker candidate can be extracted as the circumscribed rectangle.

以上の100から120に至る一連の処理は、以降の一連の対話型認識修正処理(130から170)の前処理の位置付けでバッチ的に行なうか、又は以下の繰り返し処理の前に必要な分量だけオペレータから指定して行なう。以下のオペレータによる対話型認識編集処理は、処理対象が終了するまで繰り返す。この繰返し処理を行なう場合は、後述するような地図又は映像を背景として表示したウインドウを対象にして行なう。まずオペレータにより処理対象の最小単位とする計測車両から提供される1シーンの画像を観察して、前段で抽出された標識候補画像の外接長方形が表示されているかどうかを調べる。標識の候補画像を示す外接の長方形が存在するかどうかの判定処理(130)を行なった結果、提示されている場合にはその部分を標識識別処理(140)にかけ、標識の詳細な対象を認識する。そうでない場合には、対話型の編集・修正処理(150)を行なう。その処理には大きく分けて2つの編集・修正処理がある。1つは計測車両から提供されるシーンの中に標識があるにもかかわらず、前段の候補領域抽出処理で標識候補が抽出されなかった場合で、他は候補領域が標識とは異なる誤った対象を抽出した場合である。前者の誤りの場合には、標識領域をオペレータの手動操作にて外接長方形を指定すると共に、その標識の種別を入力する。後者の誤りの場合には、オペレータ操作により抽出された外接長方形を消去して、標識候補としない処理を行なう。これまでの処理により、標識候補が特定の標識として識別された画像の系列(2シーン以上)を対象にして、標識位置の測量計算処理(160)を行なう。そして、これらの標識の識別情報と位置情報とを関連付けた状態で、標識DBへの登録処理(170)を行なう。   The above series of processing from 100 to 120 is performed in batches as the preprocessing of the subsequent series of interactive recognition correction processing (130 to 170), or only as much as necessary before the following repetitive processing. Designated by the operator. The following interactive recognition editing process by the operator is repeated until the processing target ends. When this repetitive processing is performed, it is performed on a window that displays a map or video as described below as a background. First, an operator observes an image of one scene provided from a measurement vehicle as a minimum unit to be processed, and checks whether or not a circumscribed rectangle of the marker candidate image extracted in the previous stage is displayed. As a result of judging whether there is a circumscribed rectangle indicating the candidate image of the sign (130), if it is presented, that part is subjected to the sign identification process (140) to recognize the detailed object of the sign To do. Otherwise, interactive editing / correction processing (150) is performed. The process is roughly divided into two editing / correction processes. One is a case where a sign candidate is not extracted in the previous candidate area extraction process even though there is a sign in the scene provided by the measurement vehicle, and the other is an erroneous target whose candidate area is different from the sign Is extracted. In the case of the former error, the circumscribing rectangle is designated by the operator's manual operation and the type of the sign is input. In the case of the latter error, the circumscribed rectangle extracted by the operator's operation is deleted, and processing that does not become a marker candidate is performed. The label position surveying calculation process (160) is performed on a series of images (two scenes or more) in which the label candidates are identified as specific labels by the processing so far. Then, registration processing (170) in the marker DB is performed in a state where the identification information of these markers and the position information are associated with each other.

次に色認識とノイズ除去処理の詳細な流れについて、図3を用いて説明する。3つのHIS信号の中から2成分を使った組合せ回数(この場合には3回)分だけの繰返(111)を以下の処理系に対して適用する。この場合図4に示すように、横軸に明度(Intensity)、縦軸に彩度(Saturation)をとった場合について、明度幅に対応する彩度のバンド幅を持った閾値で2値化する方式を説明する。明度軸をn個の等間隔の幅で区切り、そのi番目の幅をなす[Ii, Ii+1]に着目すると、その明度幅に対応する彩度の下位閾値をBTiとし、上位閾値をUTiとする。このとき、彩度のバンド幅[BTi, UTi]の範囲内に属する画像成分を1とし、その他の画像成分を0とする(113)。このバンド幅を持った閾値処理をi=1〜nまでn回繰返すことにより、明度に応じた特定バンド幅の彩度を持った色成分の画像領域が抽出できる(114)。この新たに抽出されたi番目の領域成分は、前段のi-1で抽出された領域成分と同一となるように領域の連結を行なう(115)。但しそのi番目に抽出された領域成分の大きさが、特定の値以下となる場合にはノイズ成分として除去する(116)。又抽出された領域が、前段までに抽出された領域と重複する範囲を持つ場合には、その重複部分をOR演算により領域を結合させる処理を行なう(117)。但しこのOR演算を行なう前のそれぞれの重複領域には、そのi番目の繰返番号とバンド閾値番号を特性値として保持し、後から何色であったかが判別できるようにする。以上のような明度に応じたバンド幅彩度による2値化を行なうことにより、天候等による照度の変化や影等の影響が少ない安定した色認識を行なうことが可能となる。なお、ここで用いる各明度値に応じた彩度に関するバンド状の閾値データは、認識処理を行なう前に同類の撮影条件から得られるサンプルデータを対象にした調査処理により、予め決められるものとする。又ノイズ成分として用いる閾値もこれらのサンプルデータを対象にした調査処理により決められるものとする。ここまでの処理では、標識領域を切り出すためのシルエットができた段階であり、以降の処理では、標識領域内部の各色の形状判定とその組合せによる標識識別である。標識らしさの評定方法としては、前段までのシルエット抽出処理の評価と標識識別処理の評価とを足し合わせて提示するようにすべきであり、その評定値の割合は流動的に決まる。   Next, a detailed flow of color recognition and noise removal processing will be described with reference to FIG. The repetition (111) corresponding to the number of combinations (three times in this case) using two components among the three HIS signals is applied to the following processing system. In this case, as shown in FIG. 4, when the horizontal axis represents lightness (Intensity) and the vertical axis represents saturation (Saturation), binarization is performed with a threshold having a saturation bandwidth corresponding to the lightness width. The method will be described. Focusing on [Ii, Ii + 1], the i-th width of the lightness axis divided by n equally spaced widths, the lower threshold of saturation corresponding to the lightness width is BTi, and the upper threshold is UTi And At this time, the image component belonging to the range of the saturation bandwidth [BTi, UTi] is set to 1, and the other image components are set to 0 (113). By repeating this threshold processing with a bandwidth n times from i = 1 to n, it is possible to extract an image region of a color component having a saturation with a specific bandwidth corresponding to the lightness (114). The newly extracted i-th region component is connected to the region so as to be the same as the region component extracted in the preceding i-1 (115). However, if the size of the i-th extracted region component is below a specific value, it is removed as a noise component (116). If the extracted area has a range that overlaps with the area extracted up to the previous stage, processing is performed to combine the overlapping areas by OR operation (117). However, the i-th repetition number and the band threshold number are held as characteristic values in the respective overlapping areas before the OR operation, so that it is possible to determine the color afterwards. By performing binarization based on the bandwidth saturation according to the lightness as described above, it is possible to perform stable color recognition that is less affected by changes in illuminance due to weather or the like and shadows. Note that the band-shaped threshold data relating to the saturation corresponding to each lightness value used here is determined in advance by an investigation process for sample data obtained from similar shooting conditions before performing the recognition process. . In addition, the threshold value used as the noise component is also determined by an investigation process for these sample data. The process so far is a stage where a silhouette for cutting out the sign area has been created. In the subsequent processes, the shape of each color in the sign area is determined and the sign is identified by a combination thereof. As a method of evaluating the likelihood of a sign, the silhouette extraction process evaluation up to the previous stage and the evaluation of the sign identification process should be added together, and the ratio of the evaluation value is determined in a fluid manner.

次に上段までに認識された画像成分から標識をなす候補領域を抽出する処理の流れについて、図5を用いて説明する。まず、処理対象とする1つのシーンには、前段までの色認識処理によりM個の領域が抽出されているとし、その領域数だけ以下の処理を繰り返す(121)。標識全体の外形を正確に抽出するため、標識の内部に小型の文字又は記号を構成する白色で囲まれた黒色成分が存在するかどうかを調べ、その存在範囲を絞り込み、必要に応じて文字・記号領域として以下の標識領域抽出処理の対象にしないようにする(123)。独立した個々の領域の大きさの比較から、一定以上の大きな領域や又は逆に一定以下の微小な領域はノイズ成分として除去すると共に、残った領域の中に存在する浮島状態の画像の欠損や外形画像の傷成分を補填する処理を加える(123)。前段の処理で残った標識候補領域に対して外接長方形を計算する(124)。この外接長方形の面積及び縦横比等の特徴から、標識候補となる領域を更に限定する処理を行なう(125)。得られた外接長方形内部の画像に対して構成色や形状特徴を得て、標識候補領域の評価値を得る(126)。この段階での形状特徴の計算方法としては、色成分ごとに切り出された領域の外接長方形の縦横比率を得る程度にして処理の高速化を図る。この段階までに得られる認識結果は標識をなす候補画像領域であり、いわば標識の外形をなすシルエット画像領域を抽出したことと同等である。又この段階で得られた標識領域の評価値を第1の評価値として、後段で説明する対話型認識編集システムの処理対象の選定基準として用いる。
前段までに抽出された標識候補領域の内部の画像を対象にして、標識の識別を行なう処理の流れについて図6に従い説明する。標識候補領域内部の画像のパターンの判定により標識の種類を識別するためには、標識候補領域内の画像の特徴を計算すると共に、図7に示すような色と形の組合せ辞書を参照して標識としての評価値を得る(133)。その特徴評価値の計算方法の一例としては、各構成色や形状特徴等の標識iに関する個別の特徴評価値をfijとすると、標識iの特徴評価値Fiは、各特徴fijに対する評価ウエイト値wjを組み合わせて下記数1で計算される。
Next, the flow of processing for extracting candidate regions for marking from image components recognized up to the upper stage will be described with reference to FIG. First, assuming that M areas have been extracted by the color recognition process up to the previous stage in one scene to be processed, the following process is repeated for the number of areas (121). In order to accurately extract the outline of the sign as a whole, the inside of the sign is checked for the presence of a black component surrounded by white, which constitutes a small character or symbol, and the existence range is narrowed down. The symbol area is not subjected to the following label area extraction processing (123). From the comparison of the size of each individual area, a large area above a certain level or a minute area below a certain level is removed as a noise component, and the floating island state image missing in the remaining area A process for compensating for the scratch component of the outline image is added (123). A circumscribed rectangle is calculated for the marker candidate region remaining in the previous processing (124). Based on the features such as the area of the circumscribed rectangle and the aspect ratio, processing for further limiting the region that is a candidate for labeling is performed (125). Constituent colors and shape characteristics are obtained for the obtained image inside the circumscribed rectangle, and an evaluation value of the marker candidate region is obtained (126). As a calculation method of the shape feature at this stage, the processing speed is increased by obtaining the aspect ratio of the circumscribed rectangle of the region cut out for each color component. The recognition result obtained up to this stage is a candidate image area that forms a sign, which is equivalent to extracting a silhouette image area that forms the outline of the sign. Further, the evaluation value of the marker area obtained at this stage is used as a first evaluation value as a criterion for selecting a processing target of the interactive recognition editing system described later.
A flow of processing for identifying a sign for an image inside the sign candidate region extracted up to the previous stage will be described with reference to FIG. In order to identify the type of the sign by determining the pattern of the image inside the sign candidate area, the feature of the image in the sign candidate area is calculated, and the color and shape combination dictionary as shown in FIG. 7 is referred to. An evaluation value as a label is obtained (133). As an example of the calculation method of the feature evaluation value, if the individual feature evaluation value for the marker i such as each component color and shape feature is f ij , the feature evaluation value F i of the marker i is evaluated for each feature f ij . The weight value w j is combined and calculated by the following formula 1.

Figure 2008287379
但しウエイト値wjの具体的な設定方法の例としては、速度規制や駐車禁止等の標識に必ず含まれる赤色の円弧形状成分を重視する意味で、構成色のウエイト値wjを他の緑色の0.4や黄色の0.3よりも大きな0.8にして色特徴が大きく出るようにする外、形状特徴の円弧に相当する項目のwjを0.7にして他の矢印の0.5や文字の0.3よりも大きくして形状特徴が大きく反映されるように設定する。
Figure 2008287379
However, as an example of a specific method of setting the weight value wj, the weight value wj of the component color is set to 0.4 for other green colors in order to emphasize the red arc shape component that is always included in the signs such as speed regulation and parking prohibition. In addition to making the color feature appear larger by setting it to 0.8, which is larger than 0.3 for yellow and yellow, the shape feature is made by setting wj of the item corresponding to the arc of the shape feature to 0.7 and larger than 0.5 for other arrows and 0.3 for characters Set so that is greatly reflected.

この評価値が標識の種類別に一定の値以上になるかどうかの判定を行い(134)、一定以上の場合について第1番目の標識候補値として候補リストに登録する(135)。更に他の標識種類別の一定の値以上になった場合についても第2番目の標識候補値として候補リストに登録する。これを標識種別数分及び前段の絞込後方分だけ繰り返す(131)(132)a。なお、この(133)の処理系で行なう標識候補領域内部の画像を対象にした形状特徴の計算の方法としては、矩形や円形及び三角形などの形状特徴を定量化する手段であればどのようなものでもよく、例えば基本的な面積対周囲長の比率計算や文献3で示されているような形状解析ライブラリを利用した計算値を利用してもよい。以上の過程で得られる標識識別のための評価値を第2の評価値として定義し、後段で説明する対話型認識編集システムの処理対象の選定基準として用いる。   It is determined whether or not the evaluation value is equal to or greater than a certain value for each type of sign (134), and if it is greater than or equal to a certain value, it is registered in the candidate list as the first sign candidate value (135). Further, even when the value exceeds a certain value for each other label type, it is registered in the candidate list as the second label candidate value. This is repeated for the number of marker types and for the rear of the previous stage of narrowing down (131) (132) a. As a method for calculating the shape feature for the image inside the marker candidate region performed in the processing system of (133), any means for quantifying the shape feature such as a rectangle, a circle, and a triangle can be used. For example, a basic area-to-perimeter ratio calculation or a calculation value using a shape analysis library as described in Document 3 may be used. An evaluation value for identifying a sign obtained in the above process is defined as a second evaluation value, and used as a selection criterion for a processing target of the interactive recognition editing system described later.

以上の手順によって、計測車両から提供される道路撮影影像を対象にした標識認識が実現する。以下本発明による対話型の認識編集システムを用いた道路標識入力インタフェースの実施例について説明する。   By the above procedure, the sign recognition for the road photographing image provided from the measurement vehicle is realized. An embodiment of a road sign input interface using the interactive recognition editing system according to the present invention will be described below.

まず本実施例の処理を実行するハードウエア構成について触れると、既に図1において説明したように、中央処理装置(1)に表示装置(2)と指示装置(3)が接続された形態となる。この構成の中央処理装置内部の対話型認識編集部(12)に着目し、その処理の画面インタフェース部の構成について図8を用いて説明する。画面構成の左から、データの入出力や表示・認識・測量などの操作を行なうための操作制御部(210)、処理対象の地図や画像を大きく表示するための主表示画面(220)、シーンの前後関係や地図上の位置を把握するために副次的に地図や画像を表示するための副表示画面(230)、標識の認識候補を評価の高い順序で提示して確認入力を行なう候補表示画面(240)、主画面で指示した位置に関する緯度・経度・高さ等の詳細な数値情報の表示を行なう位置情報表示画面、主画面で指定された順番(系列)に従って認識された標識候補の種別をアイコンで示す認識系列画面(260)で構成される。次に、これらそれぞれの画面を使って、(14)のデータベースから影像DBを検索して、認識編集処理を加えた後に地物DBへ登録するまでの一連の処理の流れを説明する。   First, touching on the hardware configuration for executing the processing of the present embodiment, as already described in FIG. 1, the display device (2) and the pointing device (3) are connected to the central processing unit (1). . Focusing on the interactive recognition editing unit (12) in the central processing unit having this configuration, the configuration of the screen interface unit for the processing will be described with reference to FIG. From the left side of the screen configuration, the operation control unit (210) for operations such as data input / output and display / recognition / surveying, main display screen (220) for displaying a large map or image to be processed, scene Sub-display screen (230) for displaying maps and images as subordinates in order to grasp the context and position on the map, candidates for signing recognition candidates in order of high evaluation and candidates for confirmation input Display screen (240), position information display screen that displays detailed numerical information such as latitude, longitude, height, etc. related to the position indicated on the main screen, marker candidates recognized according to the order (series) specified on the main screen It consists of a recognition sequence screen (260) showing the type of the icon. Next, the flow of a series of processes from searching for the image DB from the database (14), applying the recognition editing process to registering it in the feature DB will be described using each of these screens.

オペレータは操作制御画面(210)から、処理対象とする撮影影像データと計測車両の走行軌跡及びその背景となる地図をデータベースから検索し、220の主表示画面及び230の副表示画面に表示する。この場合の表示形態は図8に示すように、地図を背景に計測車両の走行軌跡を線で、その上に車載カメラで撮影した位置を丸印のアイコンで表示する。また副表示画面には、指示装置で指定された撮影位置のシーンとその1つ前の撮影位置で得られたシーンを並べて表示する。次に、操作制御画面の認識ボタンを指定することにより、標識認識処理が起動され、指定された位置から一定の数の撮影影像データの標識認識処理を実行する。その結果、主表示画面の地図上の撮影位置のアイコンが、認識評価値に応じてアイコンの色や大きさを変えて表示しなおす。このアイコン表示の変化根拠は、前段までに説明した第1の評価値又は第2の評価値との合計値を用いる。   From the operation control screen (210), the operator searches the database for the captured image data to be processed, the travel trajectory of the measurement vehicle, and the background map, and displays them on the main display screen 220 and the sub display screen 230. As shown in FIG. 8, the display form in this case displays the travel locus of the measurement vehicle with a line with a map in the background, and the position taken by the in-vehicle camera on the map as a circle icon. On the secondary display screen, the scene at the shooting position designated by the pointing device and the scene obtained at the previous shooting position are displayed side by side. Next, by designating the recognition button on the operation control screen, the sign recognition process is started, and the sign recognition process for a certain number of captured image data is executed from the designated position. As a result, the icon of the shooting position on the map on the main display screen is displayed again by changing the color and size of the icon according to the recognition evaluation value. The change basis of the icon display uses the total value of the first evaluation value or the second evaluation value described up to the previous stage.

この第2の評価値を得るための時間が長くかかる場合には、高速な第1の評価値だけを用いて行なってもよく、限定するものではない。但し第1の評価値だけを用いた場合には、後段で説明する標識候補の出現率が冗長になる可能性がある。又この認識処理は、オペレータ操作を開始する前に多量のシーンを対象にしてバッチ的に行なってもよい。オペレータ編集時にはその認識結果を得るにはそのファイル呼び出すだけでよく、認識処理を短縮することができる。   When it takes a long time to obtain the second evaluation value, it may be performed using only the high-speed first evaluation value, and is not limited. However, when only the first evaluation value is used, there is a possibility that the appearance rate of label candidates described later will be redundant. In addition, this recognition processing may be performed in batches for a large number of scenes before starting the operator operation. To edit the operator, the recognition result can be obtained by simply calling the file, and the recognition process can be shortened.

次にオペレータは、この標識が出現する可能性を示す評価の高い場所を主表示画面のアイコン表示から探し、その位置を指示装置により指定することにより、道路標識が現れているシーンの撮影影像を検索する。同時にそのシーン位置の一つ前のシーン位置の撮影影像も検索し、副表示画面部に並べて表示する。次に、標識認識処理により得られた標識候補が正しい結果となっているかどうかを確認するために、副表示画面部(230)にある画面切替ボタンを押すことにより、副表示画面のシーン影像画像と主表示画面の地図及びアイコン表示画面とを切り替える。その切替後の表示例を図9に示す。これによって、主表示画面は撮影影像データとなり、その画像位置を詳細に指定することが可能となり、標識候補領域の誤った抽出や抽出が失敗した領域の指定などを行なうことができる。標識認識処理によりこの主画面上には、認識候補となる標識画像の外接長方形が表示されると共に、その外接長方形内部の任意位置を指定すると、その識別された標識候補アイコンが候補表示画面に表示されるようにする。もしその認識結果が誤っている場合には、指示装置によって候補表示画面のアイコン選定メニューを操作することにより正しい標識となるように修正可能とする。一方、選択したシーン撮影影像の中に標識が含まれているにもかかわらず標識候補として抽出されなかった場合には、指示装置により標識を含む外形長方形を指定して、その画像をオペレータの判断で識別して、その候補表示画面のアイコン選定メニューを操作することにより正しい標識データを入力する。   Next, the operator searches the icon display on the main display screen for a highly evaluated place indicating the possibility of the appearance of this sign, and designates its position with the pointing device, thereby obtaining a captured image of the scene where the road sign appears. Search for. At the same time, a photographed image of the scene position immediately before the scene position is also retrieved and displayed side by side on the sub display screen section. Next, in order to confirm whether or not the sign candidate obtained by the sign recognition process has a correct result, the scene image image of the sub display screen is displayed by pressing the screen switching button in the sub display screen section (230). And switch between the main display screen map and icon display screen. A display example after the switching is shown in FIG. As a result, the main display screen becomes captured image data, the image position can be designated in detail, and the marker candidate region can be erroneously extracted or the region where extraction has failed can be designated. The circumscribing rectangle of the sign image as a recognition candidate is displayed on the main screen by the sign recognition process, and when an arbitrary position within the circumscribing rectangle is designated, the identified sign candidate icon is displayed on the candidate display screen. To be. If the recognition result is incorrect, it can be corrected so as to be a correct sign by operating the icon selection menu on the candidate display screen with the pointing device. On the other hand, if the selected scene-captured image contains a sign but is not extracted as a candidate for a sign, the pointing device designates an outline rectangle containing the sign and determines the image by the operator. And correct sign data is input by operating the icon selection menu on the candidate display screen.

このような認識結果の確認から修正までの一連の操作は、主表示画面(220)に表示されたシーン撮像画像を用いて行なわれ、その具体的な操作内容を、図10を用いて説明する。オペレータ指定により認識処理が実行されると、その結果の位置を主表示画面(220)上に外接長方形として表示するばかりでなく、識別結果をアイコンにて認識系列表示画面(260)の所定の位置(例えば図10に示されたシーンでは、認識結果を認識系列表示画面のマトリックス3列目に並べて表示している)に表示する。更に主表示画面上に指示装置により認識結果を示す外接長方形の内部を指定すると、候補表示画面(240)上にその外接長方形内部の画像を切出して拡大表示すると共に、認識評価値の高い順に識別結果をアイコンで並べて表示する。オペレータは、このような表示結果を見て標識の識別結果を判定する。その判定が正しい場合には、その認識結果を候補表示画面にアイコンとして表示する。一方、その認識結果の位置が誤って抽出された場合には外接長方形を消去すると共に認識結果のリストから消去する。一方認識すべき標識が抽出されなかった場合には、指示装置により外接長方形を手動で指定して、指示した位置の画像を候補表示画面に表示して、オペレータ判断により該当する標識となるアイコンを選択して認識結果のリストに追加登録する。   A series of operations from confirmation to correction of the recognition result is performed using a scene captured image displayed on the main display screen (220), and the specific operation content will be described with reference to FIG. . When recognition processing is executed by operator specification, not only the result position is displayed as a circumscribed rectangle on the main display screen (220), but also the identification result is indicated by a predetermined position on the recognition sequence display screen (260). (For example, in the scene shown in FIG. 10, the recognition result is displayed side by side in the third matrix of the recognition sequence display screen). Furthermore, when the inside of the circumscribed rectangle indicating the recognition result is designated on the main display screen by the pointing device, the image inside the circumscribed rectangle is cut out and enlarged on the candidate display screen (240) and identified in descending order of recognition evaluation value. Display results side by side with icons. The operator looks at such a display result and determines the identification result of the sign. If the determination is correct, the recognition result is displayed as an icon on the candidate display screen. On the other hand, when the position of the recognition result is extracted by mistake, the circumscribed rectangle is deleted and deleted from the list of recognition results. On the other hand, when the sign to be recognized is not extracted, the circumscribed rectangle is manually designated by the pointing device, the image at the designated position is displayed on the candidate display screen, and the icon that becomes the corresponding sign is determined by the operator. Select it and add it to the list of recognition results.

このような一連の操作にて入力されるのは、各シーンに現れる標識の画面上の位置と識別データだけである。標識データベースとしては、標識の実際の位置(緯度・経度と高さ)を入力する必要がある。この標識位置の測量は、多くの公知例で示されているように、認識対象の標識の大きさと高さを固定値に仮定すれば、カメラパラメータ(焦点距離や設置俯角等)と認識された対象の画素サイズから簡単な座標変換計算により求めることができる(特許文献1,特許文献2参照)。しかし実際には、標識の大きさと設置場所は固定値にはなっていないため、レーダー距離計やレーザー測長機、又は2つのカメラを用いたステレオ視による三角測量方式等が用いられる。また本実施例の場合には、計測車両による連続した撮像影像シーンが得られるので、1つのカメラによる走行方向に並んだ複数の撮影影像シーンを用いた三角測量により計算することができる。この方式は、特許文献2に示されている計算方式により実現可能であるが、測量計算の方式はそれに限られることはない。むしろ、この複数の撮影影像シーン列を用いた測量計算の場合に問題となるのは、少なくとも2つ必要となる同一の標識の撮像シーンの選定方法である。ところが各シーンには、GPSの受信状態の悪さから位置情報に大きな誤差が含まれていたり、標識画像が走行車両の陰に隠れて正規の画像サイズになっていない等の外乱が含まれていたりすることがある。そこで本実施例では、この測位対象とする標識が複数のシーンに出現する特性を利用して、複数の組合せから測位計算される測位計算値の中から、誤差の最も少ない組合せによる測位データを採用する方式とする。その具体的な計算方法を、図11の測位計算モデルを用いて説明する。この計算モデルは実際には3次元的なモデル記述が必要であるが、水平方向への投影図と垂直方向への投影図に分解した図面を用いて説明する。前提条件として、各画像について以下の値が与えられるものとする。
B :カメラの緯度
L :カメラの経度
Z :カメラの標高
Ah :真北方向に対するカメラ軸方向角
Av :水平面に対するカメラ軸方向角
Ar :カメラ軸回りのカメラ回転角
Px :標識画像座標
Py :標識画像座標
F :カメラ焦点距離
W×H:画素数
μ :解像度
Avo:カメラ設置鉛直角
さらに、カメラ位置、方位角の観測精度は、以下の通りとする。
ΔX :カメラ水平位置精度
ΔZ :カメラ鉛直位置精度
Δα:カメラ方位角精度
ΔP :画像上の標識座標精度
標識座標の算定は、各画像のカメラ位置(B,L,Z)と、カメラから標識への方位角を使用して、これを交差する位置の座標を求めればよい。ただし座標・方位角に誤差が含まれており、単純な数学処理ではこの値を求めることはできない。測量学的には標識が撮影されている画像データ毎にその位置と方位角を用いて、誤差最小化計算に基づいて標識座標を算定することは可能であるが、観測系での標識座標精度はメートルのオーダーになると想定されるため、計算は次のように簡略化できる。2枚の画像データを用いて、水平面及び垂直面での前方交会法により標識座標をそれぞれ計算することを基本とし、同一標識が撮影されている画像の複数組で算定した結果の中で最も精度が高いと推定される計算結果を採用する方針とする。2点間距離L、平均方位角β、交角2θで構成される三角形の辺長S1、S2は、下記の数2のようにして求められる。
In such a series of operations, only the position on the screen of the sign appearing in each scene and the identification data are input. As the sign database, it is necessary to input the actual position (latitude / longitude and height) of the sign. As shown in many well-known examples, this marker position survey was recognized as a camera parameter (focal length, installation angle, etc.) if the size and height of the marker to be recognized were assumed to be fixed values. It can be obtained from the target pixel size by simple coordinate conversion calculation (see Patent Document 1 and Patent Document 2). However, since the sign size and installation location are not fixed values in practice, a radar distance meter, a laser length measuring device, or a triangulation method using stereo vision using two cameras is used. In the case of the present embodiment, since continuous imaging image scenes by the measurement vehicle are obtained, calculation can be performed by triangulation using a plurality of imaging image scenes arranged in the traveling direction by one camera. This method can be realized by the calculation method disclosed in Patent Document 2, but the surveying calculation method is not limited thereto. Rather, what is a problem in surveying calculation using a plurality of captured image scene sequences is a method for selecting an imaging scene of the same sign that requires at least two. However, each scene contains a large error in the position information due to poor GPS reception status, and includes disturbances such as the sign image hidden behind the traveling vehicle and not becoming a regular image size. There are things to do. Therefore, in this embodiment, the positioning data based on the combination with the least error is adopted from the calculated positioning values calculated from the plurality of combinations by using the characteristic that the marker to be positioned appears in a plurality of scenes. This method is used. A specific calculation method will be described using the positioning calculation model of FIG. This calculation model actually requires a three-dimensional model description, but will be described with reference to a drawing disassembled into a horizontal projection and a vertical projection. As a precondition, the following values are given for each image.
B: Camera latitude
L: Camera longitude
Z: Elevation of the camera
Ah: Camera axis direction angle to true north direction
Av: Camera axial direction angle with respect to horizontal plane
Ar: Camera rotation angle around the camera axis
Px: Sign image coordinates
Py: Sign image coordinates
F: Camera focal length
W x H: Number of pixels
μ: Resolution
Avo: Camera installation vertical angle The observation accuracy of the camera position and azimuth is as follows.
ΔX: Camera horizontal position accuracy ΔZ: Camera vertical position accuracy Δα: Camera azimuth angle accuracy ΔP: Sign coordinate accuracy on the image The sign coordinates are calculated from the camera position (B, L, Z) of each image and from the camera to the sign Using the azimuth angle, the coordinates of the position that intersects this can be obtained. However, errors are included in the coordinates and azimuth, and this value cannot be obtained by simple mathematical processing. It is possible to calculate the marker coordinates based on the error minimization calculation using the position and azimuth for each image data where the marker is photographed, but the accuracy of the marker coordinates in the observation system Is assumed to be in the order of meters, so the calculation can be simplified as follows: It is based on the calculation of sign coordinates by the forward crossing method on the horizontal and vertical planes using two pieces of image data, and it is the most accurate among the results calculated for multiple sets of images taken with the same sign. The policy is to adopt a calculation result that is estimated to be high. The side lengths S1 and S2 of the triangle formed by the distance L between the two points, the average azimuth angle β, and the intersection angle 2θ are obtained as in the following equation 2.

Figure 2008287379
以下に、前述の前方交会法を適応して、標識の座標(B,L,Z)を算定する方法を示す。
カメラ中心から標識への方位角の計算:
画像座標(Px,Py)から、画像中心を原点とした、水平・鉛直座標(Xp、Yp)の計算水平面に対して、カメラ水平軸がAr回転しているものとすると、下記数3で算定できる。
Figure 2008287379
The method for calculating the coordinates (B, L, Z) of the sign by applying the forward crossing method described above is shown below.
Calculation of the azimuth from the camera center to the sign:
From the image coordinates (Px, Py), with the center of the image as the origin, the horizontal and vertical coordinates (Xp, Yp) are calculated. it can.

Figure 2008287379
カメラ中心から標識への方位角の計算:
カメラの観測方位角と、上の画像座標と焦点距離Fとの間の角度の和として
Figure 2008287379
次に基線の計算方法について述べる。まず、水平面計算における基線は2点の経緯度より、基線の長さL、方位角αは、下記数4。
Figure 2008287379
Calculation of the azimuth from the camera center to the sign:
As the sum of the observation azimuth of the camera and the angle between the image coordinates above and the focal length F
Figure 2008287379
Next, the calculation method of the baseline is described. First, the base line in the horizontal plane calculation is based on the longitude and latitude of two points, the length L of the base line, and the azimuth angle α is the following formula 4.

Figure 2008287379
次に鉛直面計算における基線は、2点の標高差を用いて、基線の長さL、方位角αを算定する。下記数5。
Figure 2008287379
Next, for the baseline in the vertical plane calculation, the length L of the baseline and the azimuth angle α are calculated using the difference in elevation between the two points. Number 5 below.

Figure 2008287379
2点のカメラ中心から標識への方位角を、それぞれαh1、αh2とすると、水平面前方交会法計算に必要な基本数は、下記数6として求められる。
Figure 2008287379
Assuming that the azimuth angles from the two camera centers to the sign are αh1 and αh2, respectively, the basic number required for the horizontal plane forward intersection calculation is obtained as

Figure 2008287379
同様に、鉛直面の前方交会法計算に必要な基本数は下記数7となる。
Figure 2008287379
Similarly, the basic number required for the forward crossing calculation on the vertical plane is the following formula 7.

Figure 2008287379
前方交会法により求められた、三角形の辺長S1を用いて、以下の通り標識座標を算定する。下記数8。
Figure 2008287379
Using the side length S1 of the triangle obtained by the forward intersection method, the marker coordinates are calculated as follows. Number 8 below.

Figure 2008287379
以上より、標識座標は、下記数9として得られる。
Figure 2008287379
From the above, the marker coordinates are obtained as Equation 9 below.

Figure 2008287379
次に既に述べた測位対象とする標識が複数のシーンに出現する標識の認識特性について、図12を用いて更に詳しく説明を加える。図12(a)で示すように、計測車両のカメラの位置がiの位置にある場合のカメラ撮影有効範囲をPiS-PiEとすると、計測車両位置の移動(1の位置から5の位置まで移動したとする)に伴いカメラ撮影有効範囲は図12(b)で示すようにP1S-P5Eに広がる。この場合、道路に設置された標識に該当する部分の画像の大きさが変わるため、標識候補としての評価値も変化する。その具体的な評価値としては既に図5の126示される標識領域として評価する第1の評価値、又は図6の133で示されるような標識識別のための第2の評価値、及びそれらの積算値等を用いる。そこでこれらの認識評価値を反映するための一方法として、図12(b)右側には各カメラ位置において、円の大きさを変えた表示様式を示している。即ち、標識候補としての評価値を最小値の1から最大値100にいたる幅に正規化したとして、その値に応じた半径の円表示を行なうことにより、どの場所で最も標識候補が観測できているのかが容易に分かるようにする。図12(b)の右側には、その評価値を円の大きさで反映した例を示しており、最も遠く離れた1の位置から標識画像の大きさに比例して2の位置及び3の位置と評価値が大きくなり、4の位置においては標識画像の一部が画面から隠れることの影響により認識評価値が下がりはじめ、5の位置においては完全にカメラ視野から外れて評価値がなくなるような例を示している。更にこの標識の設置位置は、図12(c)で示されるように、複数の標識が接近して設置される場合があり、その場合の標識候補の評価値は一部のカメラ位置では重なることになる。例えば図12(c)右側の標識候補の評価値を示す円表示において、1の位置から4の位置に至る範囲では標識Aの画像に対する評価値が円の大きさに反映されるが、4の位置から8の位置に至る範囲では、標識Bの画像に対する評価値が円の大きさで反映され表示される。この場合4の位置においては、標識Aと標識Bの両方の評価値が加算されることになるため、個々の標識単体の画像に対する評価値よりも大きく表示される。
Figure 2008287379
Next, the recognition characteristics of a marker in which the marker to be positioned already described appears in a plurality of scenes will be described in more detail with reference to FIG. As shown in FIG. 12 (a), if the camera capture effective range when the camera of the measurement vehicle is at position i is P iS -P iE , the measurement vehicle position is moved (positions 1 to 5). As shown in FIG. 12 (b), the effective camera shooting range extends to P 1S -P 5E . In this case, since the size of the image corresponding to the sign installed on the road changes, the evaluation value as the sign candidate also changes. As the specific evaluation value, the first evaluation value that is already evaluated as the labeled region 126 shown in FIG. 5, or the second evaluation value for identifying the label as shown by 133 in FIG. An integrated value or the like is used. Therefore, as a method for reflecting these recognition evaluation values, the right side of FIG. 12 (b) shows a display format in which the size of the circle is changed at each camera position. That is, assuming that the evaluation value as a marker candidate is normalized to a range from the minimum value 1 to the maximum value 100, by displaying a circle with a radius according to the value, the marker candidate can be observed most in any place. Make it easy to see if you are. The right side of FIG. 12 (b) shows an example in which the evaluation value is reflected in the size of a circle. From the position 1 that is farthest away, the positions 2 and 3 are proportional to the size of the sign image. The position and evaluation value increase, and at position 4, the recognition evaluation value begins to drop due to the influence of part of the sign image hidden from the screen. At position 5, the evaluation value disappears completely from the camera field of view. An example is shown. Furthermore, as shown in Fig. 12 (c), there are cases where a plurality of signs are placed close to each other, and the evaluation value of the sign candidate in that case overlaps at some camera positions. become. For example, in the circle display indicating the evaluation value of the label candidate on the right side of FIG. 12 (c), the evaluation value for the image of the label A is reflected in the size of the circle in the range from the position 1 to the position 4. In the range from the position to the position 8, the evaluation value for the image of the sign B is reflected and displayed in the size of the circle. In this case, since the evaluation values of both the signs A and B are added at the position 4, they are displayed larger than the evaluation values for the images of the individual signs alone.

標識データの認識編集を行なうオペレータは、認識メニューを指定して認識処理が行なわれた後に主表示画面の地図上に表示される標識候補の評価値の円の中で最も大きな表示位置を指定して、その標識認識の確認と修正を行なうほか、その一連の認識候補の評価位置から、その標識位置の測量計算を実行する。そしてその測量計算の結果得られる位置座標を主表示画面上の対応位置に標識の識別情報と共にアイコン表示する。この一連の測量計算から地図上のアイコン表示に至る操作の過程を図13を用いて説明する。主表示画面上に表示された地図上には、標識候補の評価値が半径の異なる円で表示されると共に、オペレータにより指定された一連の結果が画面下部の認識系列表示画面(260)に並べて表示される。その中でオペレータは、評価値の高い系列(290)に対応する認識結果を、認識系列表示画面の中から選択して指定して(図13下部点線で示された部分300)、その範囲に含まれる標識の位置を測量計算の対象とする。この測量計算の対象とする部分としては、2つ以上の標識画像を選択するものとし、2つ以上のものが選択された場合には、2つの画像シーンの組合せの回数だけ測量計算を繰り返し、その中で最も不確定な誤差成分が少ないと判断されるものをその標識の代表位置として採用する。そして、その測量計算位置に相当する地図上の位置に、識別された標識の種類に対応するアイコンを持って表示して(301)、オペレータにその測量計算の妥当性が確認できるようにする。標識アイコンの表示位置が大きくずれる場合には、オペレータにより妥当な位置へ修正可能とする。又認識系列表示画面へ標識候補を表示するための指定方法としては、主表示画面上のカメラ位置を示す点の位置を指示装置2を用いて画面から指定し、そこから一定範囲のカメラ位置の系列を選択して認識系列表示画面に表示するものとする。   The operator who recognizes and edits the sign data designates the largest display position among the circles of evaluation values of the sign candidate displayed on the map of the main display screen after the recognition process is performed by specifying the recognition menu. In addition to confirming and correcting the marker recognition, survey calculation of the marker position is executed from the evaluation positions of the series of recognition candidates. Then, the position coordinates obtained as a result of the survey calculation are displayed as icons together with the identification information of the signs at the corresponding positions on the main display screen. The process of operation from this series of survey calculations to icon display on the map will be described with reference to FIG. On the map displayed on the main display screen, the evaluation values of candidate markers are displayed in circles with different radii, and a series of results specified by the operator are arranged on the recognition sequence display screen (260) at the bottom of the screen. Is displayed. Among them, the operator selects and designates the recognition result corresponding to the series (290) having a high evaluation value from the recognition series display screen (the portion 300 indicated by the dotted line in the lower part of FIG. 13), and within that range. The position of the included sign is the target of the survey calculation. As a part to be subjected to the survey calculation, two or more sign images are selected. When two or more mark images are selected, the survey calculation is repeated by the number of combinations of two image scenes. Among them, the one determined to have the least uncertain error component is adopted as the representative position of the sign. Then, an icon corresponding to the identified sign type is displayed at a position on the map corresponding to the survey calculation position (301), so that the operator can confirm the validity of the survey calculation. When the display position of the sign icon deviates greatly, the operator can correct it to an appropriate position. As a designation method for displaying the sign candidate on the recognition sequence display screen, the position of the point indicating the camera position on the main display screen is designated from the screen using the pointing device 2, and the camera position within a certain range is determined therefrom. A series is selected and displayed on the recognition series display screen.

実施例2としては、前段の実施例1と同一のハードウエア構成で実施されるものと仮定する。この構成の中央処理装置内部の対話型認識編集部(12)に着目し、その処理の画面インタフェース部の構成について説明する。実施例1では、認識処理実行後最初にオペレータへ提示されるのは、図8に示されたような主表示画面上の地図表示とその地図上に表示される標識候補の評価値を示す円表示であり、オペレータはその評価値の高い部分を指示装置から指定して認識系列表示画面に表示して、その中から特定の系列集合を指定したものに対して測量計算を行い、主画面上でその総量位置を確認するといった流れであった。このようなインタフェースのステップを採用する理由として、標識の認識率が高くない場合には標識認識の誤りが測量計算に影響するため、標識認識の誤りを測量計算の前に修正して、できるだけ認識誤りの影響を測量計算に与えないことを狙ったものである。一方、標識認識率が高い場合には、このような認識・修正過程と測量計算過程とを必ずしも分ける必要はない。即ち、標識の認識から、複数の標識候補を使った測量計算を連続して実行し、その認識結果を識別された標識と位置情報(緯度・経度・高さ)を用いて主表示画面の地図上にアイコン表示する。従って、オペレータへ最初に提示されるインタフェースとしては、図13に示されるように地図上には認識された標識種別のアイコンを使って測量計算対応位置に表示されたものを対象とする。オペレータは、その認識の結果の確認のためには、実施例1と同等に地図上の標識候補の評価値の高い部分を指定して、認識系列表示画面(260)に認識結果を並べて表示して確認するか、いきなり地図上に表示された標識アイコンを指定してそれに対応する標識候補をたどるかの処理を行なう。この認識処理と測量計算処理とは纏めて実行されるようにし、オペレータによる確認編集に関与する工数を少なくする。   In the second embodiment, it is assumed that the second embodiment is implemented with the same hardware configuration as the first embodiment. Focusing on the interactive recognition editing unit (12) in the central processing unit having this configuration, the configuration of the screen interface unit for the processing will be described. In the first embodiment, after the recognition process is executed, the first presentation to the operator is a circle indicating the map display on the main display screen as shown in FIG. 8 and the evaluation values of the marker candidates displayed on the map. The operator designates the part with the high evaluation value from the pointing device and displays it on the recognition sequence display screen, and performs the survey calculation for the specified sequence set from among them, on the main screen. It was a flow to confirm the total amount position. The reason for adopting such an interface step is that if the recognition rate of the sign is not high, the sign recognition error will affect the survey calculation, so the sign recognition error will be corrected before the survey calculation and recognized as much as possible. It aims to prevent the influence of errors on survey calculations. On the other hand, when the sign recognition rate is high, it is not always necessary to separate such recognition / correction process and survey calculation process. That is, a survey calculation using a plurality of label candidates is continuously executed from the recognition of the sign, and the map of the main display screen using the identified sign and position information (latitude / longitude / height). Show icons on top. Therefore, the interface first presented to the operator is the one displayed on the map at the position corresponding to the survey calculation using the icon of the recognized marker type as shown in FIG. In order to confirm the recognition result, the operator designates a portion having a high evaluation value of the marker candidate on the map as in the first embodiment, and displays the recognition result side by side on the recognition sequence display screen (260). Or confirming a sign icon displayed on the map and tracing a corresponding sign candidate correspondingly. This recognition processing and survey calculation processing are executed together to reduce the man-hours involved in confirmation editing by the operator.

以上の手順を繰り返し指定した位置まで認識・編集処理を続けることにより、オペレータは効率的に標識情報データベースを構築することができる。本実施例のように、本発明によれば、公知の標識データの入力方式によるデータベース構築コストに比べてより安価な構築が可能となる。   By continuing the recognition / editing process up to the position where the above procedure is repeatedly specified, the operator can efficiently construct the sign information database. As in this embodiment, according to the present invention, it is possible to construct a database at a lower cost than a database construction cost by a known marker data input method.

本発明を実施するためのシステム構成の一例。1 shows an example of a system configuration for carrying out the present invention. 本発明による全体処理の流れの例。The example of the flow of the whole process by this invention. 本実施例における色認識とノイズ除去処理フローの例。The example of the color recognition and noise removal process flow in a present Example. 色認識のためのバンド幅閾値の例。An example of a bandwidth threshold for color recognition. 候補領域抽出処理の流れの例。The example of the flow of a candidate area | region extraction process. 標識識別処理の流れの例。An example of the flow of a label identification process. 色と形状の組合せ辞書の例。An example of a color and shape combination dictionary. 実施例1における対話型認識編集画面の構成の一例。6 illustrates an example of a configuration of an interactive recognition editing screen according to the first embodiment. 実施例1における副表示画面と入れ替えた表示画面の一例。An example of the display screen replaced with the sub display screen in Example 1. FIG. 実施例1における確認編集の画面操作の一例。6 shows an example of confirmation edit screen operation in the first embodiment. 実施例1における測位計算モデルの一例。FIG. 4 is an example of a positioning calculation model in the first embodiment. 実施例1における計測車両カメラ位置と有効撮影範囲の一例。An example of the measurement vehicle camera position and effective imaging | photography range in Example 1. FIG. 実施例1における測量計算後対話型認識編集画面の一例。An example of the interactive recognition edit screen after survey calculation in Example 1. FIG.

符号の説明Explanation of symbols

1 本発明のシステムを構成する中央処理装置部
2 本発明のシステムを構成する指示装置部
3 本発明のシステムを構成する表示装置部
210 本実施例1をなす対話型認識編集画面の操作制御画面例
220 本実施例1をなす対話型認識編集画面の主表示画面例
230 本実施例1をなす対話型認識編集画面の副表示画面例
240 本実施例1をなす対話型認識編集画面の候補表示画面例
250 本実施例1をなす対話型認識編集画面の位置情報表示画面例
260 本実施例1をなす対話型認識編集画面の認識系列表示画面例。
DESCRIPTION OF SYMBOLS 1 Central processing unit part which comprises the system of this invention 2 Instruction device part which comprises the system of this invention 3 Display unit which comprises the system of this invention
210 Example of operation control screen of interactive recognition edit screen that makes up the first embodiment
220 Example of the main display screen of the interactive recognition editing screen according to the first embodiment
230 Sub-display screen example of interactive recognition editing screen that forms the first embodiment
240 Candidate Display Screen Example of Interactive Recognition Editing Screen that Forms Example 1
250 Example of the position information display screen of the interactive recognition editing screen according to the first embodiment
260 A recognition sequence display screen example of the interactive recognition editing screen according to the first embodiment.

Claims (11)

道路画像を入力とした標識認識部と画面操作から対話的な編集を行なう編集部とを備え、編集部から認識部の起動をかけ、認識結果を認識評価値とを共に画面に表示して、評価値の高い部分から確認と編集操作を行なうことを特徴とする道路標識データ入力システム。   It has a sign recognition unit that receives road images and an editing unit that performs interactive editing from screen operations. The recognition unit is activated from the editing unit, and the recognition result is displayed on the screen together with the recognition evaluation value. A road sign data input system that performs confirmation and editing operations from the part with a high evaluation value. 請求項1で示された構成に加えて、標識画像から位置を計算する測量部を備え、認識評価値に基づく編集操作を行なった部分の標識画像を使って、測量計算を行なうことを特徴とする道路標識データの入力システム。   In addition to the configuration shown in claim 1, a surveying unit that calculates a position from a sign image is provided, and a survey calculation is performed using a sign image of a part that has been edited based on a recognition evaluation value. Road sign data input system. 請求項1の認識評価値において、標識の存在する候補領域の抽出精度を評価する第1の評価値と、抽出後の候補領域画像から標識を識別する認識の評価を行なう第2の評価値とを備えることを特徴とする道路標識データの入力システム。   The recognition evaluation value according to claim 1, wherein a first evaluation value for evaluating the extraction accuracy of a candidate area where a sign is present, and a second evaluation value for evaluating recognition for identifying a sign from a candidate area image after extraction A road sign data input system comprising: 請求項1の認識評価値において、請求項2の第1の評価値だけを使うことを特徴とする特徴とする道路標識データの入力システム。   4. The road sign data input system according to claim 1, wherein only the first evaluation value of claim 2 is used in the recognition evaluation value of claim 1. 請求項1の認識結果と認識評価値とを共に画面に表示する方法として、認識されたその評価値に比例した大きさや色及び形状などを供えた文字や記号で表示することを特徴とする道路標識データの入力システム。   A road characterized in that the recognition result and the recognition evaluation value of claim 1 are both displayed on the screen as characters and symbols having a size, color and shape proportional to the recognized evaluation value. Indicator data input system. 請求項1の編集部において、地図や道路画像を広範囲に表示する主画面とそれらを小さく表示する副画面とを備え、その主画面の内容と副画面の内容とを相互に入れ替えて表示することを特徴とする道路標識データの入力システム。   The editing unit according to claim 1, comprising a main screen for displaying a map and a road image in a wide range and a sub-screen for displaying them in a small size, and displaying the main screen content and the sub-screen content interchangeably with each other. An input system for road sign data. 請求項6の編集部において、地図上に道路画像の撮影位置を撮影カメラ軌跡の上に記号や文字で表示して、その位置を指示装置で選択すると、その位置から隣接する複数の撮影位置における道路画像を副画面に表示することを特徴とする道路標識データの入力システム。   In the editing unit according to claim 6, when a shooting position of a road image is displayed on a map with a symbol or a character on a shooting camera trajectory, and the position is selected by an instruction device, a plurality of shooting positions adjacent to the position are selected. A road sign data input system that displays a road image on a sub-screen. 請求項7の道路画像を副画面に表示する方法において、その副画面を隣接する順に複数枚表示することを特徴とする道路標識データの入力システム。   8. The road sign data input system according to claim 7, wherein a plurality of the sub-screens are displayed in an adjacent order in the method for displaying the road image on the sub-screen. 請求項2の測量計算方式において、認識評価値に基づく編集操作を行なった部分の標識画像を使って測量計算を行なう場合、最低2枚の連続した複数枚の標識画像を使って計算すると共に、その複数枚から2枚の組合せの測量計算の中から誤差の最も少ない計算値を用いることを特徴とする道路標識データの入力システム。   In the survey calculation method according to claim 2, when the survey calculation is performed using the sign image of the portion where the editing operation based on the recognition evaluation value is performed, the calculation is performed using at least two consecutive multiple sign images, A road sign data input system using a calculated value with the least error among surveying calculations of a combination of two or more sheets. 請求項2の標識画像を使った測量計算において、その測量計算値を用いて、地図上に対応する位置へ認識された標識のアイコンを使って表示すると共に、その位置を移動編集することが可能なことを特徴とする道路標識データの入力システム。   In the survey calculation using the sign image of claim 2, using the survey calculation value, it is possible to display using the icon of the recognized sign to the corresponding position on the map and to move and edit the position. An input system for road sign data. 請求項1の編集部において、認識部により得られた順番に認識結果を並べて表示すると共に、地図及び道路画像上の対応位置を円や外接長方形等のマーク表示することを特徴とする道路標識データの入力システム。   2. The road sign data according to claim 1, wherein the recognition results are displayed side by side in the order obtained by the recognition unit, and the corresponding positions on the map and road image are displayed as marks such as circles or circumscribed rectangles. Input system.
JP2007129999A 2007-05-16 2007-05-16 Road sign data input system Pending JP2008287379A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007129999A JP2008287379A (en) 2007-05-16 2007-05-16 Road sign data input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007129999A JP2008287379A (en) 2007-05-16 2007-05-16 Road sign data input system

Publications (1)

Publication Number Publication Date
JP2008287379A true JP2008287379A (en) 2008-11-27

Family

ID=40147057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007129999A Pending JP2008287379A (en) 2007-05-16 2007-05-16 Road sign data input system

Country Status (1)

Country Link
JP (1) JP2008287379A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102376166A (en) * 2010-08-23 2012-03-14 福特全球技术公司 Arrangement and method for recognizing road signs in motor vehicle
WO2013161028A1 (en) * 2012-04-26 2013-10-31 パイオニア株式会社 Image display device, navigation device, image display method, image display program and recording medium
EP3016086A1 (en) * 2014-10-27 2016-05-04 HERE Global B.V. Negative image for sign placement detection
KR101658472B1 (en) * 2015-04-23 2016-09-30 국방과학연구소 Target classification device and method therof usign segmentation reliability extraction technique
WO2018134897A1 (en) * 2017-01-17 2018-07-26 マクセル株式会社 Position and posture detection device, ar display device, position and posture detection method, and ar display method
CN111523409A (en) * 2020-04-09 2020-08-11 北京百度网讯科技有限公司 Method and apparatus for generating location information
WO2020194570A1 (en) 2019-03-27 2020-10-01 株式会社日立国際電気 Sign position identification system and program
CN111780771A (en) * 2020-05-12 2020-10-16 驭势科技(北京)有限公司 Positioning method, positioning device, electronic equipment and computer readable storage medium
WO2021153409A1 (en) * 2020-01-28 2021-08-05 株式会社日立国際電気 Asset data creating system, and program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102376166A (en) * 2010-08-23 2012-03-14 福特全球技术公司 Arrangement and method for recognizing road signs in motor vehicle
US9218535B2 (en) 2010-08-23 2015-12-22 Ford Global Technologies, Llc Arrangement and method for recognizing road signs
US9536156B2 (en) 2010-08-23 2017-01-03 Ford Global Technologies, Llc Arrangement and method for recognizing road signs
WO2013161028A1 (en) * 2012-04-26 2013-10-31 パイオニア株式会社 Image display device, navigation device, image display method, image display program and recording medium
EP3016086A1 (en) * 2014-10-27 2016-05-04 HERE Global B.V. Negative image for sign placement detection
US9530313B2 (en) 2014-10-27 2016-12-27 Here Global B.V. Negative image for sign placement detection
US9978274B2 (en) 2014-10-27 2018-05-22 Here Global B.V. Negative image for sign placement detection
KR101658472B1 (en) * 2015-04-23 2016-09-30 국방과학연구소 Target classification device and method therof usign segmentation reliability extraction technique
WO2018134897A1 (en) * 2017-01-17 2018-07-26 マクセル株式会社 Position and posture detection device, ar display device, position and posture detection method, and ar display method
WO2020194570A1 (en) 2019-03-27 2020-10-01 株式会社日立国際電気 Sign position identification system and program
JPWO2020194570A1 (en) * 2019-03-27 2021-09-13 株式会社日立国際電気 Sign positioning system and program
EP3913599A4 (en) * 2019-03-27 2022-01-05 Hitachi Kokusai Electric Inc. Sign position identification system and program
WO2021153409A1 (en) * 2020-01-28 2021-08-05 株式会社日立国際電気 Asset data creating system, and program
JPWO2021153409A1 (en) * 2020-01-28 2021-08-05
JP7444905B2 (en) 2020-01-28 2024-03-06 株式会社日立国際電気 Asset data creation system and program
CN111523409A (en) * 2020-04-09 2020-08-11 北京百度网讯科技有限公司 Method and apparatus for generating location information
JP2021168119A (en) * 2020-04-09 2021-10-21 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and device for generating positional information
US11521331B2 (en) 2020-04-09 2022-12-06 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating position information, device, and medium
JP7324792B2 (en) 2020-04-09 2023-08-10 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus for generating location information
CN111523409B (en) * 2020-04-09 2023-08-29 北京百度网讯科技有限公司 Method and device for generating position information
CN111780771A (en) * 2020-05-12 2020-10-16 驭势科技(北京)有限公司 Positioning method, positioning device, electronic equipment and computer readable storage medium

Similar Documents

Publication Publication Date Title
JP2008287379A (en) Road sign data input system
US10235580B2 (en) Method and system for automatic detection of parking zones
JP6779698B2 (en) Pavement crack analysis device, pavement crack analysis method and pavement crack analysis program
JP5057183B2 (en) Reference data generation system and position positioning system for landscape matching
CN102567449B (en) Vision system and method of analyzing an image
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
US8315796B2 (en) Navigation device
US8670921B2 (en) Onboard assistance device for aiding the following of an airport route by an aircraft
DE602004002048T2 (en) Device, system and method for signaling the traffic situation
US9129163B2 (en) Detecting common geographic features in images based on invariant components
KR101445739B1 (en) Position Detecting Method of Road Traffic Sign
EP2984451B1 (en) Navigation system and method of determining a vehicle position
US7676325B2 (en) Road landscape map producing apparatus, method and program
CN110501018A (en) A kind of traffic mark board information collecting method for serving high-precision map producing
WO2012086054A1 (en) Navigation device, control method, program, and storage medium
CA2918552A1 (en) Survey data processing device, survey data processing method, and program therefor
CN114729803A (en) Updating map data
JP7233575B2 (en) MAP GENERATION SYSTEM, MAP GENERATION METHOD AND MAP GENERATION PROGRAM
WO2016031229A1 (en) Road map creation system, data processing device, and on-board device
JP2007150681A (en) Location specifying system and location specifying method
JP4762026B2 (en) Road sign database construction device
CN104101357A (en) Navigation system and method for displaying photomap on navigation system
US20210383141A1 (en) Sign position identification system and program
CN115683142A (en) Method and device for determining region of interest
KR20170116889A (en) Apparatus of manufacturing map