JP2013072936A - Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon - Google Patents

Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon Download PDF

Info

Publication number
JP2013072936A
JP2013072936A JP2011210380A JP2011210380A JP2013072936A JP 2013072936 A JP2013072936 A JP 2013072936A JP 2011210380 A JP2011210380 A JP 2011210380A JP 2011210380 A JP2011210380 A JP 2011210380A JP 2013072936 A JP2013072936 A JP 2013072936A
Authority
JP
Japan
Prior art keywords
ortho
image
correction
point
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011210380A
Other languages
Japanese (ja)
Inventor
Kenji Kunimatsu
健治 國松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Mapmaster Inc
Original Assignee
Toyota Mapmaster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Mapmaster Inc filed Critical Toyota Mapmaster Inc
Priority to JP2011210380A priority Critical patent/JP2013072936A/en
Publication of JP2013072936A publication Critical patent/JP2013072936A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device and method thereof for an ortho-image.SOLUTION: An area to be subjected to image processing is selected from a map data storage part. Reference ortho, which exists in the area and serves as a reference of image processing, is extracted from an ortho-image storage part which stores a first ortho-image acquired on the basis of first travel and a second ortho-image acquired on the basis of second travel in association with position information. The reference ortho is arranged on the basis of the position information. A correction area to be corrected is specified in the above area. A correction ortho-image other than the reference ortho, which exists in the correction area, is extracted from the ortho-image storage part. The correction ortho image is arranged on the basis of the position information. A first point in the reference ortho and a second point corresponding to the first point in the correction ortho are specified for calibration. A moving vector indicating moving of the correction ortho to the reference ortho is generated on the basis of the points, and displayed.

Description

本発明は、オルソ画像の画像処理装置及びその方法に関する。   The present invention relates to an ortho-image processing apparatus and method.

近年のナビゲーション装置の普及に伴い、当該ナビゲーション装置で用いられる電子地図データの活用は必至である。また、電子地図データの整備とともに、その精度について更なる要求が高まってきている。
上記電子地図データは、例えば、道路を走行する車輌から連続的に撮影した画像を基にしたオルソ画像などから生成される。そして、複数の車線が存在する道路にあっては、例えば車線毎に走行した場合等、複数回の走行によりオルソ画像を取得することとなる。つまり、得られた複数のオルソ画像の位置を合わせ込みながら上記電子地図データを生成することとなる。このため、この合わせ込みの操作性が、生産性を左右する一因となる。ここで、オルソ画像とは、カメラの傾きや比高等による画像の形状の歪みを補正し、真上から見たかのように正射投影した画像である。
このような技術として、特許文献1では、一方の画像の対応点を、他方の画像の対応点に一致するように画像の配置を移動させる路面標示地図生成装置等が提案されている。
本件発明に関連する従来技術を開示する特許文献2も参照されたい。
With the recent popularization of navigation devices, it is inevitable to use electronic map data used in the navigation devices. In addition, with the development of electronic map data, there is an increasing demand for accuracy.
The electronic map data is generated from, for example, an ortho image based on images continuously taken from vehicles traveling on a road. Then, on a road having a plurality of lanes, an ortho image is acquired by a plurality of times of traveling, for example, when traveling for each lane. That is, the electronic map data is generated while aligning the positions of the plurality of obtained ortho images. For this reason, the operability of this fitting becomes a factor which affects productivity. Here, the ortho image is an image obtained by orthographic projection as if viewed from directly above after correcting the distortion of the shape of the image due to the tilt or specific height of the camera.
As such a technique, Patent Document 1 proposes a road marking map generating apparatus that moves the arrangement of images so that the corresponding points of one image coincide with the corresponding points of the other image.
See also Patent Document 2 which discloses the prior art related to the present invention.

特開2009−223213号公報JP 2009-223213 A 特開2010−175756号公報JP 2010-175756 A

しかしながら、上記従来技術では、合わせ込み操作のために行った画像の移動量や移動方向についての履歴の確認が困難であった。
そこで本発明者らは、オペレータの作業効率を向上させるべく、オルソ画像の画像処理方法について鋭意検討を重ねてきた。その結果、オルソ画像の合わせ込み処理履歴を目視可能にすることにより、オルソ画像の処理操作の作業効率向上を図り得ることに想到した。
However, in the above prior art, it is difficult to check the history of the amount and direction of image movement performed for the fitting operation.
Therefore, the present inventors have intensively studied an image processing method of an ortho image in order to improve an operator's work efficiency. As a result, it has been conceived that the work efficiency of the ortho image processing operation can be improved by making the ortho image fitting process history visible.

この発明は上述の課題に鑑みてなされたものであり、その第1の局面は次のように規定される。即ち、
地図データ保存部から、画像処理の対象となる領域を選択する対象領域選択部と、
第1の走行に基づいて得られた第1のオルソ画像及び第2の走行に基づいて得られた第2のオルソ画像を、夫々位置情報と関連付けて格納するオルソ画像格納部と、
前記オルソ画像格納部から、前記対象領域内に存在する前記画像処理の基準となるオルソ画像を基準オルソとして抽出し、前記位置情報に基づいて該基準オルソを配置する基準オルソ抽出・配置部と、
前記対象領域内において、補正の対象となる領域を補正領域として指定する補正領域指定部と、
前記オルソ画像格納部から、前記補正領域内に存在する、前記基準オルソ以外の前記オルソ画像を補正オルソとして抽出し、前記位置情報に基づいて該補正オルソを配置する補正オルソ抽出・配置部と、
前記補正オルソを前記基準オルソへ合わせ込み処理する指標として、前記基準オルソにおける第1のポイントと、前記補正オルソにおいて前記第1のポイントに対応する第2のポイントとを指定する合わせ込み処理部と、
前記第1のポイント及び前記第2のポイントに基づいて、前記補正オルソの前記基準オルソへの移動を示す移動ベクトル生成部と、
生成された前記移動ベクトルを表示する移動ベクトル表示部と、
を備える画像処理装置。
The present invention has been made in view of the above-mentioned problems, and the first aspect is defined as follows. That is,
A target area selecting section for selecting a target area for image processing from the map data storage section;
An ortho image storage unit for storing the first ortho image obtained based on the first run and the second ortho image obtained based on the second run in association with the position information, respectively;
A reference ortho extraction / placement unit that extracts an ortho image serving as a reference of the image processing existing in the target area as a reference ortho from the ortho image storage unit and arranges the reference ortho based on the position information;
Within the target area, a correction area designating unit that designates a correction target area as a correction area;
A correction ortho extraction / placement unit that extracts the ortho image other than the reference ortho, which is present in the correction area, as the correction ortho from the ortho image storage unit, and arranges the correction ortho based on the position information;
An alignment processing unit for designating a first point in the reference ortho and a second point corresponding to the first point in the correction ortho as an index for performing the alignment process on the correction ortho to the reference ortho ,
A movement vector generation unit indicating movement of the correction ortho to the reference ortho based on the first point and the second point;
A movement vector display unit for displaying the generated movement vector;
An image processing apparatus comprising:

このように規定される第1の局面の画像処理装置によれば、画像処理の対象となる対象領域を選択し、当該対象領域内に存在する基準となるオルソ画像を基準オルソとしてオルソ画像格納部から抽出し、当該基準オルソ画像に関連付けられた位置情報に基づいて当該基準オルソを配置する。そして、当該対象領域内において補正の対象となる補正領域を指定し、当該補正領域内に存在する基準オルソ以外のオルソ画像を補正オルソとしてオルソ画像格納部から抽出し、当該補正オルソ画像に関連付けられた位置情報に基づいて当該補正オルソを配置する。さらに、基準オルソにおける第1のポイントと補正オルソにおける当該第1のポイントに対応する第2のポイントとを指定することにより、補正オルソを基準オルソへ合わせ込む処理を行い、当該合わせ込み処理結果に基づいて、補正オルソの基準オルソへの移動を示す移動ベクトルを生成し、表示する。
このように、画像の合わせ込み処理結果に基づいて移動ベクトルを生成し表示することにより、当該合わせ込み結果を目視にて確認することができるため、合わせ込み処理の修正、追加、削除等を行うオペレータの作業効率を向上させることが可能となる。
また、前記第1のオルソ画像及び前記第2のオルソ画像は、夫々位置精度と関連付けられており、前記基準オルソ抽出・配置部は、前記第1のオルソ画像及び前記第2のオルソ画像のうち、関連付けられた前記位置精度の高いオルソ画像を基準オルソとして抽出することができる(第2の局面)。
According to the image processing apparatus of the first aspect thus defined, an ortho image storage unit that selects a target area to be subjected to image processing and uses a reference ortho image existing in the target area as a reference ortho. And the reference ortho is arranged based on the positional information associated with the reference ortho image. Then, a correction area to be corrected is specified in the target area, and an ortho image other than the reference ortho that exists in the correction area is extracted as a correction ortho from the ortho image storage unit and associated with the correction ortho image. The correction ortho is arranged based on the obtained position information. Further, by specifying the first point in the reference ortho and the second point corresponding to the first point in the correction ortho, a process for adjusting the correction ortho to the reference ortho is performed, and the result of the alignment processing is obtained. Based on this, a movement vector indicating movement of the correction ortho to the reference ortho is generated and displayed.
In this way, by generating and displaying the movement vector based on the result of the image fitting process, the fitting result can be visually confirmed, so that the fitting process is corrected, added, deleted, etc. It becomes possible to improve the working efficiency of the operator.
Further, the first ortho image and the second ortho image are associated with position accuracy, respectively, and the reference ortho extraction / arrangement unit includes the first ortho image and the second ortho image. The associated ortho image with high positional accuracy can be extracted as a reference ortho (second aspect).

この発明の第3の局面は次のように規定される。即ち、
第1又は第2の局面に規定の画像処理装置において、前記移動ベクトルは前記第2のポイントから前記第1のポイントへの矢印で表され、
該矢印を制御することにより、前記補正オルソの移動を制御する移動制御部、を備える。
このように規定される第3の局面の画像処理装置によれば、補正オルソの移動を示す矢印を制御することにより、補正オルソの移動を制御することができるため、オペレータの作業効率を向上させることができる。また、前記矢印には、前記合わせ込み処理された順番が関連付けられていることとできる(第4の局面)。
The third aspect of the present invention is defined as follows. That is,
In the image processing device defined in the first or second aspect, the movement vector is represented by an arrow from the second point to the first point,
A movement control unit for controlling movement of the correction ortho by controlling the arrow;
According to the image processing apparatus of the third aspect defined as described above, the movement of the correction ortho can be controlled by controlling the arrow indicating the movement of the correction ortho, thereby improving the working efficiency of the operator. be able to. In addition, the order in which the fitting process is performed can be associated with the arrow (fourth aspect).

また、この発明の第5の局面は次のように規定される。即ち、
地図データ保存部から、画像処理の対象となる領域を選択する対象領域選択ステップと、
第1の走行に基づいて得られた第1のオルソ画像及び第2の走行に基づいて得られた第2のオルソ画像を、夫々位置情報と関連付けて格納するオルソ画像格納ステップと、
前記オルソ画像格納ステップで格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記対象領域内に存在する前記画像処理の基準となるオルソ画像を基準オルソとして抽出し、前記位置情報に基づいて該基準オルソを配置する基準オルソ抽出・配置ステップと、
前記対象領域内において、補正の対象となる領域を補正領域として指定する補正領域指定ステップと、
前記オルソ画像格納ステップで格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記補正領域内に存在する、前記基準オルソ以外の前記オルソ画像を補正オルソとして抽出し、前記位置情報に基づいて該補正オルソを配置する補正オルソ抽出・配置ステップと、
前記補正オルソを前記基準オルソへ合わせ込み処理する指標として、前記基準オルソにおける第1のポイントと、前記補正オルソにおいて前記第1のポイントに対応する第2のポイントとを指定する合わせ込み処理ステップと、
前記第1のポイント及び前記第2のポイントに基づいて、前記補正オルソの前記基準オルソへの移動を示す移動ベクトル生成ステップと、
生成された前記移動ベクトルを表示する移動ベクトル表示ステップと、
を備える画像処理方法。
このように規定される第5の局面の発明によれば、第1の局面と同等の効果を奏する。
The fifth aspect of the present invention is defined as follows. That is,
A target area selecting step for selecting a target area for image processing from the map data storage unit;
An ortho image storage step of storing the first ortho image obtained based on the first run and the second ortho image obtained based on the second run in association with the position information, respectively;
From the first ortho image or the second ortho image stored in the ortho image storage step, an ortho image serving as a reference of the image processing existing in the target region is extracted as a reference ortho, and the position information A reference ortho extraction / placement step for placing the reference ortho based on
A correction area designating step of designating a correction target area as a correction area within the target area;
From the first ortho image or the second ortho image stored in the ortho image storing step, the ortho image other than the reference ortho that is present in the correction area is extracted as a correction ortho, and the position information A correction ortho extraction / placement step for placing the correction ortho based on
An alignment process step of designating a first point in the reference ortho and a second point corresponding to the first point in the correction ortho as an index for aligning the correction ortho to the reference ortho ,
Generating a movement vector indicating movement of the correction ortho to the reference ortho based on the first point and the second point;
A movement vector display step for displaying the generated movement vector;
An image processing method comprising:
According to the fifth aspect of the invention thus defined, the same effects as those of the first aspect can be achieved.

この発明の第6の局面は次のように規定される。即ち、
第5の局面に規定の画像処理方法において、前記第1のオルソ画像及び前記第2のオルソ画像は、夫々位置精度と関連付けられており、
前記基準オルソ抽出・配置ステップは、前記第1のオルソ画像及び前記第2のオルソ画像のうち、関連付けられた前記位置精度の高いオルソ画像を基準オルソとして抽出する。
このように規定される第6の局面の発明によれば、第2の局面と同等の効果を奏する。
The sixth aspect of the present invention is defined as follows. That is,
In the image processing method defined in the fifth aspect, each of the first ortho image and the second ortho image is associated with position accuracy,
In the reference ortho extraction / placement step, the associated ortho image with high positional accuracy is extracted as the reference ortho out of the first ortho image and the second ortho image.
According to the sixth aspect of the invention thus defined, the same effects as those of the second aspect can be achieved.

この発明の第7の局面は次のように規定される。即ち、
第5又は第6の局面に規定の画像処理方法において、前記移動ベクトルは前記第2のポイントから前記第1のポイントへの矢印で表され、
該矢印を制御することにより、前記補正オルソの移動を制御する移動制御ステップ、を備える。
このように規定される第7の局面の発明によれば、第3の局面と同等の効果を奏する。
The seventh aspect of the present invention is defined as follows. That is,
In the image processing method defined in the fifth or sixth aspect, the movement vector is represented by an arrow from the second point to the first point,
A movement control step of controlling movement of the correction ortho by controlling the arrow.
According to the seventh aspect of the invention thus defined, the same effect as the third aspect can be obtained.

この発明の第8の局面は次のように規定される。即ち、
第5〜第7のいずれかの局面に規定の画像処理方法において、前記矢印には、前記合わせ込み処理された順番が関連付けられている。
このように規定される第8の局面の発明によれば、第4の局面と同等の効果を奏する。
The eighth aspect of the present invention is defined as follows. That is,
In the image processing method defined in any one of the fifth to seventh aspects, the order of the fitting process is associated with the arrow.
According to the invention of the eighth aspect defined in this way, the same effects as in the fourth aspect are achieved.

更に、この発明の第9の局面は次のように規定される。即ち、
オルソ画像の処理を行うためのコンピュータプログラムであって、コンピュータを、
地図データ保存部から、画像処理の対象となる領域を選択する対象領域選択手段と、
第1の走行に基づいて得られた第1のオルソ画像及び第2の走行に基づいて得られた第2のオルソ画像を、夫々位置情報と関連付けて格納するオルソ画像格納手段と、
前記オルソ画像格納手段で格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記対象領域内に存在する前記画像処理の基準となるオルソ画像を基準オルソとして抽出し、前記位置情報に基づいて該基準オルソを配置する基準オルソ抽出・配置手段と、
前記対象領域内において、補正の対象となる領域を補正領域として指定する補正領域指定手段と、
前記オルソ画像格納手段で格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記補正領域内に存在する、前記基準オルソ以外の前記オルソ画像を補正オルソとして抽出し、前記位置情報に基づいて該補正オルソを配置する補正オルソ抽出・配置手段と、
前記補正オルソを前記基準オルソへ合わせ込み処理する指標として、前記基準オルソにおける第1のポイントと、前記補正オルソにおいて前記第1のポイントに対応する第2のポイントとを指定する合わせ込み処理手段と、
前記第1のポイント及び前記第2のポイントに基づいて、前記補正オルソの前記基準オルソへの移動を示す移動ベクトル生成手段と、
生成された前記移動ベクトルを表示する移動ベクトル表示手段と、
を備えるコンピュータプログラム。
このように規定される第9の局面の発明によれば、第1の局面と同等の効果を奏する。
Furthermore, the ninth aspect of the present invention is defined as follows. That is,
A computer program for processing an ortho image, comprising:
A target area selecting means for selecting a target area for image processing from the map data storage unit;
Ortho image storage means for storing the first ortho image obtained based on the first run and the second ortho image obtained based on the second run in association with the position information, respectively.
From the first ortho image or the second ortho image stored in the ortho image storage means, an ortho image serving as a reference of the image processing existing in the target region is extracted as a reference ortho, and the position information A reference ortho extraction / placement means for placing the reference ortho based on
Within the target area, a correction area designating means for designating a correction target area as a correction area;
From the first ortho image or the second ortho image stored in the ortho image storage means, the ortho image other than the reference ortho that exists in the correction area is extracted as a correction ortho, and the position information Correction ortho extraction and arrangement means for arranging the correction ortho based on
An alignment processing means for designating a first point in the reference ortho and a second point corresponding to the first point in the correction ortho as an index for aligning the correction ortho with the reference ortho ,
Movement vector generating means for indicating movement of the correction ortho to the reference ortho based on the first point and the second point;
Movement vector display means for displaying the generated movement vector;
A computer program comprising:
According to the ninth aspect of the invention thus defined, the same effects as those of the first aspect can be achieved.

この発明の第10の局面は次のように規定される。即ち、
第9の局面に規定のコンピュータプログラムにおいて、前記第1のオルソ画像及び前記第2のオルソ画像は、夫々位置精度と関連付けられており、
前記基準オルソ抽出・配置手段は、前記第1のオルソ画像及び前記第2のオルソ画像のうち、関連付けられた前記位置精度の高いオルソ画像を基準オルソとして抽出する。
このように規定される第10の局面の発明によれば、第2の局面と同等の効果を奏する。
The tenth aspect of the present invention is defined as follows. That is,
In the computer program defined in the ninth aspect, the first ortho image and the second ortho image are associated with positional accuracy,
The reference ortho extraction / placement means extracts the associated ortho image with high positional accuracy as the reference ortho out of the first ortho image and the second ortho image.
According to the tenth aspect of the invention thus defined, the same effects as those of the second aspect can be achieved.

この発明の第11の局面は次のように規定される。即ち、
第9又は第10の局面に規定のコンピュータプログラムにおいて、前記移動ベクトルは前記第2のポイントから前記第1のポイントへの矢印で表され、
該矢印を制御することにより、前記補正オルソの移動を制御する移動制御手段、を備える。
このように規定される第11の局面の発明によれば、第3の局面と同等の効果を奏する。
The eleventh aspect of the present invention is defined as follows. That is,
In the computer program defined in the ninth or tenth aspect, the movement vector is represented by an arrow from the second point to the first point,
And a movement control means for controlling movement of the correction ortho by controlling the arrow.
According to the eleventh aspect of the invention thus defined, the same effects as in the third aspect can be achieved.

この発明の第12の局面は次のように規定される。即ち、
第9〜第11のいずれかの局面に規定のコンピュータプログラムにおいて、前記矢印には、前記合わせ込み処理された順番が関連付けられている。
このように規定される第12の局面の発明によれば、第4の局面と同等の効果を奏する。
The twelfth aspect of the present invention is defined as follows. That is,
In the computer program defined in any of the ninth to eleventh aspects, the arrow is associated with the order of the fitting process.
According to the twelfth aspect of the invention thus defined, the same effects as in the fourth aspect are achieved.

第9〜第12のいずれかの局面に規定されるコンピュータプログラムを記録する記録媒体が第13の局面として規定される。   A recording medium for recording a computer program defined in any of the ninth to twelfth aspects is defined as a thirteenth aspect.

本発明の実施の形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of embodiment of this invention. 本発明の画像処理装置における合わせ込み処理を示す模式図である。It is a schematic diagram which shows the fitting process in the image processing apparatus of this invention. 本発明の実施の形態の画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus of embodiment of this invention. 本発明の実施例の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the Example of this invention. 本発明の他の実施例の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the other Example of this invention.

この発明の実施の形態の画像処置装置を説明する。
図1に、画像処理装置1の概略構成を示す。適宜、図2に示す模式図を用いて、以下に説明する。
図1に示すように、この画像処理装置1は、地図データ保存部3、オルソ画像格納部4、対象領域選択部5、第1保存部6、基準オルソ抽出・配置部7、第2保存部8、補正領域指定部9、第3保存部10、補正オルソ抽出・配置部11、第4保存部12、合わせ込み処理部13、第5保存部14、移動ベクトル生成部15、第6保存部16及び移動ベクトル表示部としてのディスプレイ17を備えている。
An image processing apparatus according to an embodiment of the present invention will be described.
FIG. 1 shows a schematic configuration of the image processing apparatus 1. This will be described below with reference to the schematic diagram shown in FIG.
As shown in FIG. 1, the image processing apparatus 1 includes a map data storage unit 3, an ortho image storage unit 4, a target area selection unit 5, a first storage unit 6, a reference ortho extraction / placement unit 7, and a second storage unit. 8, correction area designation unit 9, third storage unit 10, correction ortho extraction / placement unit 11, fourth storage unit 12, fitting processing unit 13, fifth storage unit 14, movement vector generation unit 15, sixth storage unit 16 and a display 17 as a movement vector display unit.

地図データ保存部3には地図情報が保存される。地図情報にはリンクやノードなど地図情報を規定するための道路要素に関する情報と地図に描画される情報等が含まれている。
オルソ画像格納部4は、第1の格納部41及び第2の格納部42を備える。第1の格納部41は、第1の走行に基づいて得られた第1のオルソ画像を格納し、第2の格納部42は、第2の走行に基づいて得られた第2のオルソ画像を格納する。第1のオルソ画像と第2のオルソ画像は、例えば、同一の道路において異なる車線を走行して得られた画像である。オルソ画像格納部4は、第1の格納部41及び第2の格納部42の他、第3の走行に基づいて得られるオルソ画像を格納する第3の格納部・・・第mの走行に基づいて得られるオルソ画像を格納する第mの格納部等を適宜備えることとできる。ここで、第1のオルソ画像〜第mのオルソ画像は、夫々位置情報と関連付けて格納されている。各オルソ画像に関連付けられる位置情報は、位置検出機能とカメラとを備えた車輌が道路を走行してオルソ画像を取得した際の位置検出機能による位置情報とすることができる。位置検出機能として、例えば、GPS装置、ジャイロ装置、車速センサ等が挙げられる。また、上記オルソ画像には位置精度が関連付けられていることが好ましい。当該位置精度としては、GPS装置の受信状況等が挙げられる。このように、オルソ画像に位置精度が関連付けられることにより、後述する基準オルソ抽出・配置部7は、オルソ画像に関連付けられた位置精度を基準にして、位置精度の良いオルソ画像を基準オルソとして抽出することができる。
Map information is stored in the map data storage unit 3. The map information includes information about road elements for defining map information such as links and nodes, information drawn on the map, and the like.
The ortho image storage unit 4 includes a first storage unit 41 and a second storage unit 42. The first storage unit 41 stores the first ortho image obtained based on the first travel, and the second storage unit 42 stores the second ortho image obtained based on the second travel. Is stored. The first ortho image and the second ortho image are, for example, images obtained by traveling in different lanes on the same road. The ortho image storage unit 4 includes a first storage unit 41 and a second storage unit 42, as well as a third storage unit for storing an ortho image obtained based on the third travel, for the m-th travel. An m-th storage unit or the like for storing the ortho image obtained based thereon can be provided as appropriate. Here, the first to m-th ortho images are stored in association with the position information. The position information associated with each ortho image can be position information obtained by a position detection function when a vehicle having a position detection function and a camera travels on a road and acquires an ortho image. Examples of the position detection function include a GPS device, a gyro device, a vehicle speed sensor, and the like. Further, it is preferable that positional accuracy is associated with the ortho image. The position accuracy includes the reception status of the GPS device. As described above, the positional accuracy is associated with the ortho image, so that the later-described reference ortho extraction / placement unit 7 extracts an ortho image having a high positional accuracy as the reference ortho with reference to the position accuracy associated with the ortho image. can do.

対象領域選択部5は、地図データ保存部3から画像処理の対象となる領域を選択する。当該選択の方法は、特に限定されないが、例えば、オペレータの手動による対象領域の選択を許容するよう設計することとできる。また、別の方法として、当該地図データから任意に指定された範囲内において対象領域を自動的に選択することとしても良い。選択された当該対象領域は第1保存部6に保存される。
基準オルソ抽出・配置部7は、オルソ画像格納部4を参照して、対象領域選択部5で選択された対象領域内に存在する、画像処理の基準となるオルソ画像を基準オルソとして抽出し、当該基準オルソに関連付けられた位置情報に基づいて基準オルソを配置する。当該基準オルソの抽出方法としては、特に限定されないが、例えば、第1のオルソ画像に関連付けられた位置精度と第2のオルソ画像に関連付けられた位置精度とを比較し、当該位置精度の高いオルソ画像を基準オルソとして抽出することとできる。当該位置精度の比較は、第1の格納部41に格納される第1のオルソ画像群と第2の格納部42に格納される第2のオルソ画像群において、オルソ画像の位置精度が所定基準を満たすオルソ画像数が多い格納部に格納されたオルソ画像を基準オルソとして抽出することとできる。当該位置精度の基準としては、位置情報を取得したときのGPS衛星の捕捉数等が挙げられる。抽出された基準オルソは、当該基準オルソに関連付けられた位置情報に基づいて、対象領域選択部5で選択された対象領域内に配置される。配置された当該基準オルソは、対象領域と関連付けて第2保存部8に保存される。
The target area selection unit 5 selects an area to be subjected to image processing from the map data storage unit 3. Although the method of the said selection is not specifically limited, For example, it can be designed to accept | permit selection of the object area | region by an operator's manual. As another method, the target area may be automatically selected within a range arbitrarily designated from the map data. The selected target area is stored in the first storage unit 6.
The reference ortho extraction / placement unit 7 refers to the ortho image storage unit 4 and extracts, as a reference ortho, an ortho image that is present in the target area selected by the target area selection unit 5 and serves as a reference for image processing. The reference ortho is arranged based on the position information associated with the reference ortho. A method for extracting the reference ortho is not particularly limited. For example, the position accuracy associated with the first ortho image is compared with the position accuracy associated with the second ortho image, and the ortho with high position accuracy is compared. An image can be extracted as a reference ortho. The comparison of the positional accuracy is based on the fact that the positional accuracy of the ortho image in the first ortho image group stored in the first storage unit 41 and the second ortho image group stored in the second storage unit 42 is a predetermined reference. An ortho image stored in a storage unit having a large number of ortho images satisfying the condition can be extracted as a reference ortho. The reference of the position accuracy includes the number of GPS satellites captured when the position information is acquired. The extracted reference ortho is arranged in the target area selected by the target area selection unit 5 based on the position information associated with the reference ortho. The arranged reference ortho is stored in the second storage unit 8 in association with the target region.

補正領域指定部9は、第1保存部6を参照して、対象領域選択部5で選択された対象領域内において、補正の対象となる領域を補正領域として指定する。当該指定の方法は、特に限定されないが、例えば、対象領域内において上記基準オルソが配置されていない領域や、当該対象領域内において既に配置された基準オルソの画像が不鮮明あるいは変形している領域等を、自動により又はオペレータによる手動により指定することとできる。指定された当該補正領域は第3保存部10に保存される。
補正オルソ抽出・配置部11は、オルソ画像格納部4を参照して、補正領域指定部9で指定された補正領域内に存在する、上記基準オルソ以外のオルソ画像を補正オルソとして抽出し、当該補正オルソに関連付けられた位置情報に基づいて補正オルソを配置する。補正オルソ抽出・配置部11は、一の基準オルソに対して、一のオルソ画像を補正オルソとして抽出しても良く、また、オルソ画像格納部4に格納される複数のオルソ画像を補正オルソとして抽出することとしても良い。抽出及び配置された当該補正オルソは、補正領域と関連付けて、あるいは、配置後の新たな位置情報と関連付けて第4保存部12に保存される。
合わせ込み処理部13は、第2保存部8及び第4保存部12を参照し、補正オルソ抽出・配置部11で配置された補正オルソを上記基準オルソへ合わせ込む処理を行う。当該合わせ込み処理の方法としては、特に限定されないが、例えば、オペレータの手動により、補正オルソにおいて合わせ込み始点A(図2に示すポイントA)を特定し、基準オルソにおいて当該ポイントAに対応する合わせ込み終点B(同、ポイントB)を特定することをもって合わせ込み処理とすることができる。当該合わせ込み処理は、一の補正オルソを合わせ込むこととしても良いし、予め補正オルソの範囲を指定し、当該範囲に存在する補正オルソ群を合わせ込むこととしても良い。当該合わせ込み処理の結果は第5保存部14に保存される。
The correction area designating unit 9 refers to the first storage unit 6 and designates a correction target area as a correction area within the target area selected by the target area selection unit 5. The designation method is not particularly limited. For example, an area where the reference ortho is not arranged in the target area, an area where the image of the reference ortho already arranged in the target area is unclear or deformed, etc. Can be specified automatically or manually by an operator. The specified correction area is stored in the third storage unit 10.
The correction ortho extraction / placement unit 11 refers to the ortho image storage unit 4 to extract an ortho image other than the reference ortho that exists in the correction area designated by the correction area designation unit 9 as a correction ortho, A correction ortho is arranged based on position information associated with the correction ortho. The correction ortho extraction / placement unit 11 may extract one ortho image as a correction ortho with respect to one reference ortho, and a plurality of ortho images stored in the ortho image storage unit 4 as correction orthos. It is good also as extracting. The extracted and arranged correction ortho is stored in the fourth storage unit 12 in association with the correction area or in association with new position information after the arrangement.
The matching processing unit 13 refers to the second storage unit 8 and the fourth storage unit 12 and performs processing to match the correction ortho arranged by the correction ortho extraction / placement unit 11 with the reference ortho. The method for the alignment process is not particularly limited. For example, the alignment start point A (point A shown in FIG. 2) is specified in the correction ortho by the operator's manual operation, and the alignment corresponding to the point A in the reference ortho is performed. By specifying the ending point B (same as the point B), the fitting process can be performed. The matching process may be performed by combining one correction ortho, or by specifying a range of correction ortho in advance and combining a correction ortho group existing in the range. The result of the fitting process is stored in the fifth storage unit 14.

移動ベクトル生成部15は、第5保存部14を参照し、補正オルソにおいて特定されたポイントA及び基準オルソにおいて特定されたポイントBに基づいて、移動ベクトルを生成する。すなわち、移動ベクトル生成部15は、ポイントAからポイントBへの移動方向及び移動の大きさを表す移動ベクトルを生成する。当該移動ベクトルには、移動方向、移動距離、移動させる補正オルソの範囲及び複数回移動させたときの移動履歴(例えば、合わせ込み処理された順番等)等の情報が関連付けられていても良い。生成された当該移動ベクトルは第6保存部16に保存される。
ディスプレイ17は、第2保存部8、第4保存部12、第5保存部14及び第6保存部16を参照し、合わせ込み結処理結果を反映させて、基準オルソ及び補正オルソを表示し、これとともに、移動ベクトル生成部15で生成された移動ベクトルを第6保存部16から読み出し、当該移動ベクトルをディスプレイに表示する。移動ベクトルの表示は、特に限定されないが、例えば、ポイントAからポイントBへの矢印で表すこととできる。また、このとき、基準オルソと補正オルソとが重複する範囲については、基準オルソを優先的に表示することが好ましい。
The movement vector generation unit 15 refers to the fifth storage unit 14 and generates a movement vector based on the point A specified in the correction ortho and the point B specified in the reference ortho. That is, the movement vector generation unit 15 generates a movement vector representing the movement direction and the magnitude of movement from the point A to the point B. The movement vector may be associated with information such as a movement direction, a movement distance, a range of a correction ortho to be moved, and a movement history (for example, the order of fitting processing) when the movement vector is moved a plurality of times. The generated movement vector is stored in the sixth storage unit 16.
The display 17 refers to the second storage unit 8, the fourth storage unit 12, the fifth storage unit 14, and the sixth storage unit 16, reflects the result of the fitting process, and displays the reference ortho and the correction ortho, At the same time, the movement vector generated by the movement vector generation unit 15 is read from the sixth storage unit 16, and the movement vector is displayed on the display. Although the display of the movement vector is not particularly limited, for example, it can be represented by an arrow from point A to point B. At this time, it is preferable that the reference ortho is preferentially displayed in a range where the reference ortho and the correction ortho overlap.

図3を用いて、図1に示す画像処理装置1の動作を説明する。
まず、ステップ1では、地図データ保存部3を参照し、画像処理の対象となる対象領域を選択し、保存する。
ステップ3では、基準オルソ抽出・配置部7は、ステップ1で選択された対象領域内に存在するオルソ画像を基準オルソとしてオルソ画像格納部4内の第1の格納部41あるいは第2の格納部42から抽出する。当該基準オルソをいずれの格納部から抽出するかについては、特に限定されないが、位置精度の高いオルソ画像が格納された格納部から抽出することが好ましい。すなわち、例えば、各格納部に格納されたオルソ画像の位置精度に基づいて格納部全体としての位置精度を求め、当該位置精度の高い格納部に格納されたオルソ画像を基準オルソとして抽出することとできる。また、予め各格納部に位置精度が付与されている場合には、当該付与された位置精度に基づいて基準オルソを抽出しても良い。
ステップ5では、基準オルソ抽出・配置部7は、ステップ3で抽出された基準オルソを、当該基準オルソに関連付けられた位置情報に基づき、ステップ1で選択された対象領域内に配置し、保存する。
The operation of the image processing apparatus 1 shown in FIG. 1 will be described with reference to FIG.
First, in step 1, the map data storage unit 3 is referenced to select and save a target area to be subjected to image processing.
In step 3, the reference ortho extraction / placement unit 7 uses the ortho image existing in the target area selected in step 1 as the reference ortho, and the first storage unit 41 or the second storage unit in the ortho image storage unit 4. 42. The storage unit from which the reference ortho is extracted is not particularly limited, but is preferably extracted from the storage unit in which the ortho image with high positional accuracy is stored. That is, for example, obtaining the position accuracy of the entire storage unit based on the position accuracy of the ortho image stored in each storage unit, and extracting the ortho image stored in the storage unit having a high position accuracy as the reference ortho it can. In addition, when position accuracy is given to each storage unit in advance, the reference ortho may be extracted based on the given position accuracy.
In step 5, the reference ortho extraction / placement unit 7 places the reference ortho extracted in step 3 in the target area selected in step 1 based on the position information associated with the reference ortho and saves it. .

ステップ7では、ステップ1で選択された対象領域とステップ5で配置された基準オルソとに基づいて、対象領域内で補正の対象となる領域を補正領域として指定し、保存する。
ステップ9では、補正オルソ抽出・配置部11は、ステップ7で指定された補正領域内に存在する基準オルソ以外のオルソ画像を補正オルソとして抽出する。
ステップ11では、補正オルソ抽出・配置部11は、ステップ9で抽出された補正オルソを、当該補正オルソに関連付けられた位置情報に基づき、ステップ7で指定された補正領域内に配置し、保存する。
ステップ13では、ステップ11で配置された補正オルソをステップ5で配置された基準オルソへ合わせ込む処理を行う。すなわち、オペレータの手動により、又は自動で、補正オルソにおける合わせ込み始点Aを特定し、さらに、基準オルソにおける合わせ込み終点Bを特定することにより、合わせ込み処理を行う。
ステップ15では、ステップ13で特定されたポイントAとポイントBとを結ぶ移動ベクトルを生成し、保存する。当該生成された移動ベクトルは、ディスプレイ等により表示される(ステップ17)。
In step 7, based on the target region selected in step 1 and the reference ortho placed in step 5, a region to be corrected in the target region is designated as a correction region and stored.
In step 9, the correction ortho extraction / placement unit 11 extracts an ortho image other than the reference ortho that exists in the correction area specified in step 7 as a correction ortho.
In step 11, the correction ortho extraction / placement unit 11 arranges and stores the correction ortho extracted in step 9 in the correction area specified in step 7 based on the positional information associated with the correction ortho. .
In step 13, a process of aligning the correction ortho placed in step 11 with the reference ortho placed in step 5 is performed. In other words, the alignment process is performed by specifying the alignment start point A in the correction ortho and manually specifying the alignment end point B in the reference ortho, either manually or automatically by the operator.
In step 15, a movement vector connecting point A and point B identified in step 13 is generated and stored. The generated movement vector is displayed on a display or the like (step 17).

図4は、この発明の実施例の画像処理装置21のブロック図である。図4において、図1と同一の要素には同一の符号を付して、その説明を部分的に省略する。
図4に示すのは、生成された移動ベクトルを制御することにより補正オルソの移動を制御可能な画像処理装置21である。すなわち、当該装置21は、図1に示す装置1において、制御部410、メモリ部411、入力部412、出力部413及びインターフェース部414を更に備えている。
制御部410はCPU、バッファメモリその他の装置を備えたコンピュータ装置であり、画像処理装置21を構成する他の要素を制御する。この制御部410は、移動制御部23を備えている。
移動制御部23は、後述する入力部412におけるオペレータの指令に基づいて、補正オルソの移動を制御する。すなわち、当該移動ベクトルを削除する指令が入力された場合には、補正オルソの移動はキャンセルされる。また、当該移動ベクトルの大きさ、方向を変更する指令が入力された場合には、当該変更後の移動ベクトルの大きさ、方向に応じて補正オルソの移動を変更する。また、これら移動のキャンセルや変更は、移動ベクトルを制御することによって行うこととしても良いし、移動ベクトルに関連付けられたデータをキャンセル、変更することにより行うこととしても良い。
FIG. 4 is a block diagram of the image processing apparatus 21 according to the embodiment of the present invention. 4, the same elements as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is partially omitted.
FIG. 4 shows an image processing apparatus 21 that can control the movement of the correction ortho by controlling the generated movement vector. That is, the device 21 further includes a control unit 410, a memory unit 411, an input unit 412, an output unit 413, and an interface unit 414 in the device 1 shown in FIG.
The control unit 410 is a computer device including a CPU, a buffer memory, and other devices, and controls other elements constituting the image processing device 21. The control unit 410 includes a movement control unit 23.
The movement control unit 23 controls the movement of the correction ortho based on an operator command in the input unit 412 described later. That is, when a command for deleting the movement vector is input, the movement of the correction ortho is canceled. Further, when a command to change the magnitude and direction of the movement vector is input, the movement of the correction ortho is changed according to the magnitude and direction of the movement vector after the change. Also, the cancellation or change of the movement may be performed by controlling the movement vector, or may be performed by canceling or changing data associated with the movement vector.

メモリ部411にはコンピュータプログラムが保存され、このコンピュータプログラムはコンピュータ装置である制御部410に読み込まれて、これを機能させる。このコンピュータプログラムは、端末装置又は移動体端末装置の記憶装置としての内蔵ハードディスク又は内蔵メモリ、端末装置又は移動体端末装置に差し替え可能な記憶媒体としてのSD(登録商標)メモリカード、メモリスティック、スマートメディア、コンパクトフラッシュ(登録商標)、DVD等の汎用的な媒体へ保存できる。
入力部412は、例えば、オペレータの指令の入力に用いられる。また、移動ベクトルにコメントを関連付けたいときなどには、当該コメントの入力の際に用いることとできる。入力部412として、マウス、ライトペン又はディスプレイの表示内容と協働するタッチパネル等のポインティングデバイスやキーボード又はマイクロホン等の音声入力装置を用いることができる。
出力部413はディスプレイを含み、入力画面や、格納部3に格納されたオルソ画像等、その他の情報を表示する。また、移動ベクトル生成部15で生成された移動ベクトルを表示する移動ベクトル表示部としても機能する。この出力部413は音声発信部を含むこともできる。
インターフェース部414は画像処理装置21を無線ネットワーク等へ連結させる。
A computer program is stored in the memory unit 411, and this computer program is read into the control unit 410, which is a computer device, and causes it to function. This computer program includes a built-in hard disk or built-in memory as a storage device of a terminal device or a mobile terminal device, an SD (registered trademark) memory card, a memory stick, a smart as a storage medium replaceable with the terminal device or the mobile terminal device The data can be stored on a general-purpose medium such as a medium, CompactFlash (registered trademark), or DVD.
The input unit 412 is used, for example, for inputting an operator command. Further, when it is desired to associate a comment with a movement vector, it can be used when inputting the comment. As the input unit 412, a pointing device such as a touch panel or a voice input device such as a keyboard or a microphone that cooperates with display contents of a mouse, a light pen, or a display can be used.
The output unit 413 includes a display, and displays other information such as an input screen and an ortho image stored in the storage unit 3. Further, it also functions as a movement vector display unit that displays the movement vector generated by the movement vector generation unit 15. The output unit 413 can also include a voice transmission unit.
The interface unit 414 connects the image processing apparatus 21 to a wireless network or the like.

図5は、この発明の他の実施例の画像処理装置31のブロック図である。図5において、図1及び図4と同一の要素には同一の符号を付して、その説明を部分的に省略する。
図5に示すのは、合わせ込み処理を行うポイントを提示可能な画像処理装置31である。すなわち、当該装置31は、図4に示す装置21において、処理ポイント提示部33を更に備えている。
処理ポイント提示部33は、補正オルソにおいて合わせ込み処理をするポイントを提示する。すなわち、対象領域内において既にされた合わせ込み処理の結果に基づいて、未処理の領域における合わせ込み処理ポイントの提示を行う。例えば、既に二以上の合わせ込み処理されている場合において、合わせ込み始点間の間隔に基づき次の合わせ込みポイントを提示することとできる。当該提示の方法としては、補正オルソにおいて合わせ込み処理を提示するポイントを点滅させる等により行うこととできる。また、当該処理ポイントの提示と併せて、合わせ込み量や合わせ込み方向を提示することとしても良い。また、当該処理ポイントの提示に代えて、あるいは当該提示と併せて、合わせ込み処理を行うべき補正オルソを提示することとしても良い。
上記処理ポイント提示部33で提示された処理ポイントに基づき、オペレータの手動により補正オルソの合わせ込み処理を行うこととできる。また、上記のように、処理ポイントに加えて、合わせ込み量や合わせ込み方向が提示されている場合には、上記移動ベクトル生成部15は、当該提示内容に基づいて自動で補正オルソの合わせ込み処理を行うこととしても良い。
FIG. 5 is a block diagram of an image processing apparatus 31 according to another embodiment of the present invention. In FIG. 5, the same elements as those in FIGS. 1 and 4 are denoted by the same reference numerals, and description thereof is partially omitted.
FIG. 5 shows an image processing apparatus 31 capable of presenting points for performing the fitting process. That is, the apparatus 31 further includes a processing point presentation unit 33 in the apparatus 21 shown in FIG.
The processing point presentation unit 33 presents a point for performing the fitting process in the correction ortho. That is, based on the result of the matching process already performed in the target area, the matching process point in the unprocessed area is presented. For example, when two or more matching processes have already been performed, the next matching point can be presented based on the interval between the matching start points. The presenting method can be performed by blinking a point for presenting the fitting process in the correction ortho. Moreover, it is good also as presenting the amount of fitting and the fitting direction together with the presentation of the said processing point. Moreover, it is good also as showing the correction | amendment ortho which should perform a fitting process instead of the presentation of the said process point, or together with the said presentation.
Based on the processing point presented by the processing point presentation unit 33, the operator can manually perform the correction ortho fitting process. In addition to the processing points as described above, when the adjustment amount and the alignment direction are presented, the movement vector generation unit 15 automatically adjusts the correction ortho based on the presented content. It is good also as processing.

以上、本発明の実施の形態について説明してきたが、これらのうち、2つ以上の実施の形態を組み合わせて実施しても構わない。あるいは、これらのうち、1つの実施の形態を部分的に実施しても構わない。さらには、これらのうち、2つ以上の実施の形態を部分的に組み合わせて実施しても構わない。
この発明は、上記発明の実施の形態及び実施例の説明に何ら限定されるものではない。特許請求の範囲の記載を逸脱せず、当業者が容易に想到できる範囲で種々の変形態様もこの発明に含まれる。
As mentioned above, although embodiment of this invention has been described, you may implement combining 2 or more embodiment among these. Alternatively, one of these embodiments may be partially implemented. Furthermore, among these, two or more embodiments may be partially combined.
The present invention is not limited to the description of the embodiments and examples of the invention described above. Various modifications may be included in the present invention as long as those skilled in the art can easily conceive without departing from the description of the scope of claims.

1 21 31 画像処理装置
3 地図データ保存部
4 オルソ画像格納部
5 対象領域選択部
7 基準オルソ抽出・配置部
9 補正領域指定部
11 補正オルソ抽出・配置部
13 合わせ込み処理部
15 移動ベクトル生成部
17 ディスプレイ
23 移動制御部
33 処理ポイント提示部
1 21 31 Image processing device 3 Map data storage unit 4 Ortho image storage unit 5 Target region selection unit 7 Reference ortho extraction / placement unit 9 Correction region designation unit 11 Correction ortho extraction / placement unit 13 Matching processing unit 15 Movement vector generation unit 17 Display 23 Movement Control Unit 33 Processing Point Presentation Unit

Claims (13)

地図データ保存部から、画像処理の対象となる領域を選択する対象領域選択部と、
第1の走行に基づいて得られた第1のオルソ画像及び第2の走行に基づいて得られた第2のオルソ画像を、夫々位置情報と関連付けて格納するオルソ画像格納部と、
前記オルソ画像格納部から、前記対象領域内に存在する前記画像処理の基準となるオルソ画像を基準オルソとして抽出し、前記位置情報に基づいて該基準オルソを配置する基準オルソ抽出・配置部と、
前記対象領域内において、補正の対象となる領域を補正領域として指定する補正領域指定部と、
前記オルソ画像格納部から、前記補正領域内に存在する、前記基準オルソ以外の前記オルソ画像を補正オルソとして抽出し、前記位置情報に基づいて該補正オルソを配置する補正オルソ抽出・配置部と、
前記補正オルソを前記基準オルソへ合わせ込み処理する指標として、前記基準オルソにおける第1のポイントと、前記補正オルソにおいて前記第1のポイントに対応する第2のポイントとを指定する合わせ込み処理部と、
前記第1のポイント及び前記第2のポイントに基づいて、前記補正オルソの前記基準オルソへの移動を示す移動ベクトル生成部と、
生成された前記移動ベクトルを表示する移動ベクトル表示部と、
を備える画像処理装置。
A target area selecting section for selecting a target area for image processing from the map data storage section;
An ortho image storage unit for storing the first ortho image obtained based on the first run and the second ortho image obtained based on the second run in association with the position information, respectively;
A reference ortho extraction / placement unit that extracts an ortho image serving as a reference of the image processing existing in the target area as a reference ortho from the ortho image storage unit and arranges the reference ortho based on the position information;
Within the target area, a correction area designating unit that designates a correction target area as a correction area;
A correction ortho extraction / placement unit that extracts the ortho image other than the reference ortho, which is present in the correction area, as the correction ortho from the ortho image storage unit, and arranges the correction ortho based on the position information;
An alignment processing unit for designating a first point in the reference ortho and a second point corresponding to the first point in the correction ortho as an index for performing the alignment process on the correction ortho to the reference ortho ,
A movement vector generation unit indicating movement of the correction ortho to the reference ortho based on the first point and the second point;
A movement vector display unit for displaying the generated movement vector;
An image processing apparatus comprising:
前記第1のオルソ画像及び前記第2のオルソ画像は、夫々位置精度と関連付けられており、
前記基準オルソ抽出・配置部は、前記第1のオルソ画像及び前記第2のオルソ画像のうち、関連付けられた前記位置精度の高いオルソ画像を基準オルソとして抽出する、
請求項1に記載の画像処理装置。
The first ortho image and the second ortho image are each associated with position accuracy;
The reference ortho extraction / arrangement unit extracts the associated ortho image with high positional accuracy as the reference ortho out of the first ortho image and the second ortho image.
The image processing apparatus according to claim 1.
前記移動ベクトルは前記第2のポイントから前記第1のポイントへの矢印で表され、
該矢印を制御することにより、前記補正オルソの移動を制御する移動制御部、
を備える請求項1又は2に記載の画像処理装置。
The movement vector is represented by an arrow from the second point to the first point;
A movement control unit for controlling movement of the correction ortho by controlling the arrow;
The image processing apparatus according to claim 1, further comprising:
前記矢印には、前記合わせ込み処理された順番が関連付けられている、請求項1〜3のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the order in which the fitting process is performed is associated with the arrow. 地図データ保存部から、画像処理の対象となる領域を選択する対象領域選択ステップと、
第1の走行に基づいて得られた第1のオルソ画像及び第2の走行に基づいて得られた第2のオルソ画像を、夫々位置情報と関連付けて格納するオルソ画像格納ステップと、
前記オルソ画像格納ステップで格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記対象領域内に存在する前記画像処理の基準となるオルソ画像を基準オルソとして抽出し、前記位置情報に基づいて該基準オルソを配置する基準オルソ抽出・配置ステップと、
前記対象領域内において、補正の対象となる領域を補正領域として指定する補正領域指定ステップと、
前記オルソ画像格納ステップで格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記補正領域内に存在する、前記基準オルソ以外の前記オルソ画像を補正オルソとして抽出し、前記位置情報に基づいて該補正オルソを配置する補正オルソ抽出・配置ステップと、
前記補正オルソを前記基準オルソへ合わせ込み処理する指標として、前記基準オルソにおける第1のポイントと、前記補正オルソにおいて前記第1のポイントに対応する第2のポイントとを指定する合わせ込み処理ステップと、
前記第1のポイント及び前記第2のポイントに基づいて、前記補正オルソの前記基準オルソへの移動を示す移動ベクトル生成ステップと、
生成された前記移動ベクトルを表示する移動ベクトル表示ステップと、
を備える画像処理方法。
A target area selecting step for selecting a target area for image processing from the map data storage unit;
An ortho image storage step of storing the first ortho image obtained based on the first run and the second ortho image obtained based on the second run in association with the position information, respectively;
From the first ortho image or the second ortho image stored in the ortho image storage step, an ortho image serving as a reference of the image processing existing in the target region is extracted as a reference ortho, and the position information A reference ortho extraction / placement step for placing the reference ortho based on
A correction area designating step of designating a correction target area as a correction area within the target area;
From the first ortho image or the second ortho image stored in the ortho image storing step, the ortho image other than the reference ortho that is present in the correction area is extracted as a correction ortho, and the position information A correction ortho extraction / placement step for placing the correction ortho based on
An alignment process step of designating a first point in the reference ortho and a second point corresponding to the first point in the correction ortho as an index for aligning the correction ortho to the reference ortho ,
Generating a movement vector indicating movement of the correction ortho to the reference ortho based on the first point and the second point;
A movement vector display step for displaying the generated movement vector;
An image processing method comprising:
前記第1のオルソ画像及び前記第2のオルソ画像は、夫々位置精度と関連付けられており、
前記基準オルソ抽出・配置ステップは、前記第1のオルソ画像及び前記第2のオルソ画像のうち、関連付けられた前記位置精度の高いオルソ画像を基準オルソとして抽出する、
請求項5に記載の画像処理方法。
The first ortho image and the second ortho image are each associated with position accuracy;
In the reference ortho extraction / placement step, the associated ortho image with high positional accuracy is extracted as the reference ortho out of the first ortho image and the second ortho image.
The image processing method according to claim 5.
前記移動ベクトルは前記第2のポイントから前記第1のポイントへの矢印で表され、
該矢印を制御することにより、前記補正オルソの移動を制御する移動制御ステップ、
を備える請求項5又は6に記載の画像処理方法。
The movement vector is represented by an arrow from the second point to the first point;
A movement control step for controlling movement of the correction ortho by controlling the arrow;
An image processing method according to claim 5 or 6.
前記矢印には、前記合わせ込み処理された順番が関連付けられている、請求項5〜7のいずれか一項に記載の画像処理方法。   The image processing method according to claim 5, wherein the order in which the fitting process is performed is associated with the arrow. オルソ画像の処理を行うためのコンピュータプログラムであって、コンピュータを、
地図データ保存部から、画像処理の対象となる領域を選択する対象領域選択手段と、
第1の走行に基づいて得られた第1のオルソ画像及び第2の走行に基づいて得られた第2のオルソ画像を、夫々位置情報と関連付けて格納するオルソ画像格納手段と、
前記オルソ画像格納手段で格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記対象領域内に存在する前記画像処理の基準となるオルソ画像を基準オルソとして抽出し、前記位置情報に基づいて該基準オルソを配置する基準オルソ抽出・配置手段と、
前記対象領域内において、補正の対象となる領域を補正領域として指定する補正領域指定手段と、
前記オルソ画像格納手段で格納された前記第1のオルソ画像又は前記第2のオルソ画像から、前記補正領域内に存在する、前記基準オルソ以外の前記オルソ画像を補正オルソとして抽出し、前記位置情報に基づいて該補正オルソを配置する補正オルソ抽出・配置手段と、
前記補正オルソを前記基準オルソへ合わせ込み処理する指標として、前記基準オルソにおける第1のポイントと、前記補正オルソにおいて前記第1のポイントに対応する第2のポイントとを指定する合わせ込み処理手段と、
前記第1のポイント及び前記第2のポイントに基づいて、前記補正オルソの前記基準オルソへの移動を示す移動ベクトル生成手段と、
生成された前記移動ベクトルを表示する移動ベクトル表示手段と、
を備えるコンピュータプログラム。
A computer program for processing an ortho image, comprising:
A target area selecting means for selecting a target area for image processing from the map data storage unit;
Ortho image storage means for storing the first ortho image obtained based on the first run and the second ortho image obtained based on the second run in association with the position information, respectively.
From the first ortho image or the second ortho image stored in the ortho image storage means, an ortho image serving as a reference of the image processing existing in the target region is extracted as a reference ortho, and the position information A reference ortho extraction / placement means for placing the reference ortho based on
Within the target area, a correction area designating means for designating a correction target area as a correction area;
From the first ortho image or the second ortho image stored in the ortho image storage means, the ortho image other than the reference ortho that exists in the correction area is extracted as a correction ortho, and the position information Correction ortho extraction and arrangement means for arranging the correction ortho based on
An alignment processing means for designating a first point in the reference ortho and a second point corresponding to the first point in the correction ortho as an index for aligning the correction ortho with the reference ortho ,
Movement vector generating means for indicating movement of the correction ortho to the reference ortho based on the first point and the second point;
Movement vector display means for displaying the generated movement vector;
A computer program comprising:
前記第1のオルソ画像及び前記第2のオルソ画像は、夫々位置精度と関連付けられており、
前記基準オルソ抽出・配置手段は、前記第1のオルソ画像及び前記第2のオルソ画像のうち、関連付けられた前記位置精度の高いオルソ画像を基準オルソとして抽出する、
請求項9に記載のコンピュータプログラム。
The first ortho image and the second ortho image are each associated with position accuracy;
The reference ortho extraction / placement means extracts the associated ortho image with high positional accuracy as the reference ortho out of the first ortho image and the second ortho image.
The computer program according to claim 9.
前記移動ベクトルは前記第2のポイントから前記第1のポイントへの矢印で表され、
該矢印を制御することにより、前記補正オルソの移動を制御する移動制御手段、
を備える請求項9又は10に記載のコンピュータプログラム。
The movement vector is represented by an arrow from the second point to the first point;
Movement control means for controlling movement of the correction ortho by controlling the arrow;
A computer program according to claim 9 or 10.
前記矢印には、前記合わせ込み処理された順番が関連付けられている、請求項9〜11のいずれか一項に記載のコンピュータプログラム。   The computer program according to any one of claims 9 to 11, wherein the arrow is associated with the order of the fitting process. 請求項9〜請求項12のいずれか一項に記載のコンピュータプログラムを記録する記録媒体。   The recording medium which records the computer program as described in any one of Claims 9-12.
JP2011210380A 2011-09-27 2011-09-27 Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon Pending JP2013072936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011210380A JP2013072936A (en) 2011-09-27 2011-09-27 Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011210380A JP2013072936A (en) 2011-09-27 2011-09-27 Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon

Publications (1)

Publication Number Publication Date
JP2013072936A true JP2013072936A (en) 2013-04-22

Family

ID=48477507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011210380A Pending JP2013072936A (en) 2011-09-27 2011-09-27 Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon

Country Status (1)

Country Link
JP (1) JP2013072936A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015090591A (en) * 2013-11-06 2015-05-11 株式会社パスコ Generation device and generation method for road surface ortho-image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215189A (en) * 2005-02-02 2006-08-17 Xanavi Informatics Corp Display method of navigation system
JP2007050180A (en) * 2005-08-19 2007-03-01 Snk Playmore Corp Game device
JP2008009843A (en) * 2006-06-30 2008-01-17 Honda Motor Co Ltd Obstacle discrimination device
WO2008132977A1 (en) * 2007-04-24 2008-11-06 Konica Minolta Holdings, Inc. Image editing apparatus and image editing system
JP2008286687A (en) * 2007-05-18 2008-11-27 Funai Electric Co Ltd Electronic apparatus and navigation device
JP2009151896A (en) * 2007-12-21 2009-07-09 Sony Corp Image processing system, motion picture reproducing system, and processing method and program for them
JP2009223213A (en) * 2008-03-18 2009-10-01 Zenrin Co Ltd Road surface marking map creating method
JP2010160689A (en) * 2009-01-08 2010-07-22 Sharp Corp Input device and method of controlling the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215189A (en) * 2005-02-02 2006-08-17 Xanavi Informatics Corp Display method of navigation system
JP2007050180A (en) * 2005-08-19 2007-03-01 Snk Playmore Corp Game device
JP2008009843A (en) * 2006-06-30 2008-01-17 Honda Motor Co Ltd Obstacle discrimination device
WO2008132977A1 (en) * 2007-04-24 2008-11-06 Konica Minolta Holdings, Inc. Image editing apparatus and image editing system
JP2008286687A (en) * 2007-05-18 2008-11-27 Funai Electric Co Ltd Electronic apparatus and navigation device
JP2009151896A (en) * 2007-12-21 2009-07-09 Sony Corp Image processing system, motion picture reproducing system, and processing method and program for them
JP2009223213A (en) * 2008-03-18 2009-10-01 Zenrin Co Ltd Road surface marking map creating method
JP2010160689A (en) * 2009-01-08 2010-07-22 Sharp Corp Input device and method of controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015090591A (en) * 2013-11-06 2015-05-11 株式会社パスコ Generation device and generation method for road surface ortho-image

Similar Documents

Publication Publication Date Title
US9228839B2 (en) Method for generating split screen according to a touch gesture
JP5921320B2 (en) Display system, portable device, in-vehicle device, and program
US20200388080A1 (en) Displaying content in an augmented reality system
CN103335657B (en) A kind of method and system based on image capture and recognition technology example of enhanced navigational functionality
TWI545536B (en) Rotation operations in a mapping application
KR100989663B1 (en) Method, terminal device and computer-readable recording medium for providing information on an object not included in visual field of the terminal device
US20120250940A1 (en) Terminal device, object control method, and program
JP6006820B2 (en) Mobile device, operation method, and non-transitory computer-readable storage medium
JP6096634B2 (en) 3D map display system using virtual reality
JP6090173B2 (en) Information processing apparatus, information processing method, and program
JP6030935B2 (en) Information processing program, display control apparatus, display system, and display method
TWI550568B (en) Mapping application with 3d presentation
JP6110780B2 (en) Additional information display system
CN105431845A (en) Information processing apparatus, information processing method, and program
CN103376104B (en) The method producing divided frame according to touch control gesture
JP5883723B2 (en) 3D image display system
JP2015125699A (en) Information processing device, and program
JP6335710B2 (en) Display information generation system and display information generation method
JP2013072936A (en) Image processing device and method thereof, computer program for image processing, and recording medium with computer program recorded thereon
TWI521187B (en) Integrated mapping and navigation application
JP5829154B2 (en) Augmented reality system
JP2011059630A5 (en)
TW201407559A (en) Route display and review
JP5636882B2 (en) Image processing apparatus, image processing method, and program
JP2014174725A (en) Map display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151006