JP7317299B2 - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP7317299B2
JP7317299B2 JP2019138832A JP2019138832A JP7317299B2 JP 7317299 B2 JP7317299 B2 JP 7317299B2 JP 2019138832 A JP2019138832 A JP 2019138832A JP 2019138832 A JP2019138832 A JP 2019138832A JP 7317299 B2 JP7317299 B2 JP 7317299B2
Authority
JP
Japan
Prior art keywords
image information
area
detailed image
detailed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019138832A
Other languages
Japanese (ja)
Other versions
JP2021022210A (en
Inventor
信義 武藤
利文 村田
功 上野
恵太郎 小沼
尚人 二又
敬介 水上
晴季 松澤
茜 澤田
慎一 安達
雄章 石川
和人 熊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Pacific Consultants Co Ltd
Original Assignee
University of Tokyo NUC
Pacific Consultants Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Pacific Consultants Co Ltd filed Critical University of Tokyo NUC
Priority to JP2019138832A priority Critical patent/JP7317299B2/en
Publication of JP2021022210A publication Critical patent/JP2021022210A/en
Application granted granted Critical
Publication of JP7317299B2 publication Critical patent/JP7317299B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

路面を撮影した画像情報に対する画像処理システムに関する。 The present invention relates to an image processing system for image information obtained by photographing a road surface.

空港の滑走路や道路などの路面に凹凸があると事故につながることがあるため,路面の異常,特に凹凸の異常の有無を検出することが路面の管理からは重要である。そこで,道路などを走行する車両に所定の装置を搭載し,路面を撮影することで,路面の凹凸の検出を行うことが従来より行われている。 Uneven road surfaces such as airport runways and roads can lead to accidents, so it is important from the viewpoint of road surface management to detect road surface irregularities, especially irregularities. Therefore, conventionally, a vehicle traveling on a road or the like is equipped with a predetermined device to photograph the road surface, thereby detecting the unevenness of the road surface.

たとえば下記特許文献1,特許文献2に記載のようにスリット光を路面に照射し,それを撮影することで路面の凹凸を検出することが行われている。これらを用いることで,路面の凹凸を一定程度,検出することはできる。 For example, as described in Patent Documents 1 and 2 below, a road surface is irradiated with slit light and photographed to detect the unevenness of the road surface. By using these, it is possible to detect the unevenness of the road surface to a certain extent.

特開平4-291195号公報JP-A-4-291195 特開昭59-80501号公報JP-A-59-80501

これらの発明のように,路面を撮影することで画像情報を得る方式の場合,対象とする路面の全範囲に亘って漏れなく撮影をすることが求められる。そこで,車両が走行する経路(コース)の両脇にガイドとなるLEDを搭載したコーン(パイロン)を置き,それに沿って車両が走行することが考えられる。また,走行すべき経路をガイドするシステムとしてカーナビゲーションシステムがあり,カーナビゲーションシステムのガイドに沿って走行することも考えられる。 In the case of the method of obtaining image information by photographing the road surface as in these inventions, it is required to photograph the entire range of the target road surface without omission. Therefore, it is conceivable to place cones (pylons) mounted with LEDs as guides on both sides of a route (course) along which the vehicle travels. In addition, there is a car navigation system as a system that guides the route to be traveled, and it is conceivable to travel along the guidance of the car navigation system.

しかし,コーンを置いた場合には,コーンの延長線上にある路面を撮影することはできないので,その延長線上の路面に凹凸の異常があった場合には検出することができない。そして,コーンの延長線上にある路面を撮影する場合には,コーンをずらした上で,撮影をしなければならないが,コーンの再設置,再撮影,撮影した画像情報の位置合わせなど著しい作業負担が発生する。 However, when the cone is placed, it is not possible to photograph the road surface on the extension line of the cone. When photographing the road surface on the extension line of the cone, it is necessary to shift the cone before photographing. occurs.

カーナビゲーションシステムを用いた場合であっても,人が車両を運転した場合,自動運転のいずれの場合であっても,左右方向(横断方向)への多少の揺らぎが発生する。 Even when a car navigation system is used, when the vehicle is driven by a person, or when the vehicle is driven automatically, there is some fluctuation in the left-right direction (transverse direction).

撮影対象となる路面が滑走路の場合,横断方向の幅が長いため,一度の走行では滑走路の左右全体に亘って撮影することができないことから,少しずつ左右に走行経路をずらしながら撮影を行うこととなる。これを模式的に示すのが図26である。図26では簡略化のため,滑走路を2つのコースに分割し,コース1とコース2とを一回ずつ走行する状態を模式的に示したものであるが,実際の滑走路の横断方向の幅はこれよりも広く,3以上のコースに分割されることが一般的である。また,図26における斜線部分は,レーン間の関係をわかりやすくするために付しているものである。 If the road surface to be photographed is a runway, it is not possible to photograph the entire left and right sides of the runway in one run because of the long width in the transverse direction. It will be done. FIG. 26 schematically shows this. For the sake of simplification, Figure 26 schematically shows the state in which the runway is divided into two courses, and the course 1 and course 2 are run once each. It is wider than this and is generally divided into 3 or more courses. Also, the hatched portions in FIG. 26 are added to facilitate understanding of the relationship between the lanes.

図26のように車両がコースを走行してその滑走路の路面の撮影をした場合,滑走路全体を画像情報として表示する場合には,図26で示すように,コース1を走行することで撮影しなければならない領域であるレーン1の画像情報と,コース2を走行することで撮影しなければならない領域であるレーン2の画像情報とを,横断方向で位置を合わせる必要がある。なお,コースとは車両が走行する予定の領域(または車両の中心が通過する予定の軌跡)であり,レーンとは,車両がコースを走行することで撮影しなければならない路面の領域である。車両が理想的にコースを走行した場合,コースの横断方向の中心位置とレーンの横断方向の中心位置は一致する。またコースの境界はレーンの境界となる。 As shown in Figure 26, when a vehicle travels on a course and photographs the road surface of the runway, when the entire runway is displayed as image information, as shown in Figure 26, by traveling course 1 It is necessary to align the image information of Lane 1, which is the area to be photographed, with the image information of Lane 2, which is the area to be photographed by traveling on Course 2, in the transverse direction. A course is an area where a vehicle is expected to travel (or a trajectory that the center of the vehicle is expected to pass through), and a lane is an area of the road surface that must be photographed as the vehicle travels along the course. When a vehicle ideally travels on a course, the center position of the course in the transverse direction coincides with the center position of the lane in the transverse direction. Also, the boundary of the course becomes the boundary of the lane.

すなわちレーン1の画像情報における点A,B,Cに対応するレーン2の画像情報における対応点A’,B’,C’を特定し,特定した対応点に基づいて,画像情報の合成処理を行う。そしてこの対応点の特定は,オプティカルフローや局所特徴量などの技術を用いて行う。このように特定した対応点を図27のA-A’,B-B’,C-C’のように対とし,これらを含む三角形の領域を設定する。なお,D,E,F,Gなどの点はほかのレーンの画像との間での対応点から特定した点とする。各レーン画像情報を中心線同士がレーン間の距離となるような位置に配置し,同時に対応点がすべて一致する(対応点同士が中点で重なる)ように各三角形に含まれる領域の画像情報をアフィン変換させ,画像情報同士を合成する。このとき,図28のA-B-Cの下側,A’-B’-C’の上側の画像情報を捨てる。 That is, the corresponding points A', B', and C' in the image information of lane 2 corresponding to the points A, B, and C in the image information of lane 1 are specified, and based on the specified corresponding points, the synthesis processing of the image information is performed. conduct. The identification of these corresponding points is performed using techniques such as optical flow and local feature values. Corresponding points specified in this way are paired as indicated by A-A', B-B', and C-C' in FIG. 27, and a triangular area including these is set. Note that points such as D, E, F, and G are points specified from corresponding points with images of other lanes. Each lane image information is placed at a position where the center lines are the distance between the lanes, and at the same time, the image information of the area included in each triangle so that all the corresponding points match (the corresponding points overlap at the midpoint) are affine-transformed to synthesize the image information. At this time, the image information below ABC and above A'-B'-C' in FIG. 28 is discarded.

このように,一連の処理は2つのレーンの画像情報について多数の対応点を探索し,その結果に基づいて画像情報を小さい領域でそれぞれアフィン変換をする必要があるため,膨大な時間を要する。そのため,撮影した結果をすぐに目視したい利用場面には適さない。 In this way, the series of processes requires a large number of corresponding points to be searched for the image information of the two lanes, and based on the results, it is necessary to perform affine transformation on each of the image information in a small area, which requires an enormous amount of time. For this reason, it is not suitable for situations in which it is desired to view the photographed results immediately.

また撮影対象となる路面が,湾曲をしているなどの場合の表示形式については考慮がされていなかった。 Also, no consideration has been given to the display format when the road surface to be photographed is curved.

そこで本発明者は,上記課題に鑑み,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない画像処理システムを発明した。また,撮影した結果をすぐに目視したい場合には,すぐに確認することができる画像処理システムを発明した。さらに,湾曲部分を含む撮影対象物についてもそれに応じた表示形式を可能とする画像処理システムを発明した。 Therefore, in view of the above problems, the inventor invented an image processing system that does not cause omission of image information even if fluctuation occurs in the transverse direction during photographing. In addition, we have invented an image processing system that enables immediate visual confirmation of photographed results. Furthermore, the present inventors invented an image processing system capable of displaying a corresponding display format even for an object to be photographed that includes a curved portion.

第1の発明は,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示処理部,を有しており,前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれており,前記表示処理部は,前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う,画像処理システムである。
A first invention is an image processing system for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion, wherein the image processing system processes the first detailed image information. A lane area, which is an area of the road surface that must be photographed, specified in the image information and the second detailed image information , and an area of a constant width provided outside the left and/or right of the lane area The first detailed image information and the second detailed image information are arranged so that the margin area in the first detailed image information is positioned next to the second detailed image information based on the margin area. and a part or all of the imaging range of the margin area in the first detailed image information is the same as the imaging range of the lane area in the second detailed image information. The display processing unit includes a first display format in which the first detailed image information and the second detailed image information are displayed side by side without performing expansion and contraction processing , and a unit distance interval This is an image processing system that performs display processing in a second display format for displaying side by side first detailed image information and second detailed image information expanded and contracted so that the length of the image information is constant.

本発明のように構成することで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,従来のように画像情報同士の複雑な合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。さらに,湾曲がある路面を撮影した場合であっても,第1の表示形式では凹凸などの異常を実際のサイズと同様の大きさで確認することができるとともに,第2の表示形式では,隣り合う画像情報同士の横断方向のずれが少なくなるので,画像情報を横断して存在する凹凸等の異常の全体像を容易に確認することができる。 By configuring as in the present invention, image information is not lost even if fluctuation occurs in the transverse direction during photographing. In addition, since complicated processing for synthesizing image information as in the conventional method is not required, image information can be displayed by simple processing without requiring processing time. Furthermore, even when shooting a curved road surface, in the first display format, irregularities such as unevenness can be confirmed in the same size as the actual size, and in the second display format, adjacent Since the difference in the transverse direction between matching image information is reduced, the entire image of an abnormality such as unevenness existing across the image information can be easily confirmed.

第2の発明は,撮影対象物の隣り合う範囲を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを,位置情報を対応させて表示する表示処理部,を有しており,前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれる,画像処理システムである。
A second invention is an image processing system for first detailed image information and second detailed image information obtained by photographing adjacent ranges of an object to be photographed, wherein the image processing system processes the first detailed image information and the second detailed image information , the lane area that is the area of the road surface that must be photographed , and a constant width area provided on the left and right or either one of the lane area Based on the margin area, the first detailed image information and the second detailed image information are combined so that the margin area in the first detailed image information is positioned next to the second detailed image information. , a display processing unit that displays corresponding position information , and a part or all of the shooting range of the margin area in the first detailed image information is the lane in the second detailed image information It is an image processing system that is included in part or all of the imaging range of the area.

本発明のように構成することで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,従来のように画像情報同士の複雑な合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。 By configuring as in the present invention, image information is not lost even if fluctuation occurs in the transverse direction during photographing. In addition, since complicated processing for synthesizing image information as in the conventional method is not required, image information can be displayed by simple processing without requiring processing time.

上述の発明において,前記表示処理部は,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の前記マージン領域の隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する,画像処理システムのように構成することができる。
In the above-described invention, the display processing unit adjusts the first detailed image information so that the margin area in the first detailed image information is positioned next to the margin area in the second detailed image information. and the second detailed image information.

このように第2の領域同士が隣に位置するように,第1の画像情報と第2の画像情報とを表示することで,それぞれの境界付近にある凹凸などの異常を見落とすことがなくなる。 By displaying the first image information and the second image information such that the second areas are positioned next to each other in this way, it is possible to overlook an abnormality such as unevenness in the vicinity of the respective boundaries.

上述の発明において,前記表示処理部は,さらに,前記第1の詳細画像情報における前記レーン領域が,前記第2の詳細画像情報の前記レーン領域の隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する,画像処理システムのように構成することができる。
In the above-described invention, the display processing unit further adjusts the first detailed image information such that the lane area in the first detailed image information is positioned next to the lane area in the second detailed image information . It can be configured as an image processing system that displays the image information and the second detailed image information.

第2の領域同士が隣に位置するように第1の画像情報と第2の画像情報とを表示することで,境界付近にある凹凸などの異常の見落としを減らすことはできるものの,境界付近が重複して表示される,全体のプロポーションが崩れるなど,視認性に影響を与える場合がある。そして,撮影対象物の全体の中から詳細に見るべき位置を決めるなどの場面では,より広い範囲で画像情報の表示を行うことが作業効率上,好ましい。そこで本発明のように,第1の領域同士が隣に位置するように第1の画像情報と第2の画像情報とを表示させることで,利用者の利便性を向上することができる。 By displaying the first image information and the second image information so that the second areas are positioned next to each other, it is possible to reduce the possibility of overlooking abnormalities such as irregularities near the boundaries, but the Visibility may be affected, such as overlapping display and loss of overall proportions. In situations such as determining a position to be viewed in detail from the entire object, it is preferable in terms of work efficiency to display image information in a wider range. Therefore, as in the present invention, by displaying the first image information and the second image information such that the first areas are adjacent to each other, the user's convenience can be improved.

上述の発明において,前記表示処理部は,さらに,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の前記マージン領域の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示形式と,前記第1の詳細画像情報における前記レーン領域が,前記第2の詳細画像情報の前記レーン領域に隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示形式とが,切り替え可能である,画像処理システムのように構成することができる。
In the above-described invention, the display processing unit further adjusts the first detailed image so that the margin area in the first detailed image information is positioned next to the margin area in the second detailed image information. a display format for displaying the information and the second detailed image information ; The display format for displaying the first detailed image information and the display format for displaying the second detailed image information can be switched as in an image processing system.

本発明のように,2つの表示形式を切り替え可能とすることで,利用者は目的に沿って表示を切り替えることができるので,利用者の利便性を向上させることができる。 By making it possible to switch between two display formats as in the present invention, the user can switch the display according to his or her purpose, thereby improving convenience for the user.

上述の発明において,前記表示処理部は,前記レーン領域と前記マージン領域とを区別可能に表示をする,画像処理システムのように構成することができる。
In the above invention, the display processing unit can be configured as an image processing system that displays the lane area and the margin area in a distinguishable manner.

上述の発明において,前記表示処理部は,前記第1の詳細画像情報と前記第2の詳細画像情報とを区別可能に表示をする,画像処理システムのように構成することができる。
In the above invention, the display processing section can be configured as an image processing system that displays the first detailed image information and the second detailed image information in a distinguishable manner.

撮影対象物がたとえば路面の場合には,アスファルト舗装されているなどの特徴があり,領域や画像情報の区別がつきにくいため,これらの発明のように,異なる領域,異なる画像情報が区別可能なように表示されていることがよい。 If the object to be photographed is, for example, a road surface, it has characteristics such as being paved with asphalt, making it difficult to distinguish between areas and image information. It should be displayed as

第8の発明は,撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の画像情報と前記第2の画像情報について,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域とを特定し,前記マージン領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記レーン領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部と,前記第1の画像情報と前記第2の画像情報とを位置情報を用いて対応づけて表示処理を行う表示処理部と,を有しており,前記表示処理部は,前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,画像処理システムである。
An eighth invention is an image processing system for first image information and second image information obtained by photographing adjacent ranges of an object, wherein the image processing system comprises the first image information and the second image information. For the image information of 2 , specify the lane area, which is the area of the road surface that must be photographed , and the margin area, which is an area of a certain width provided outside the left and right sides or either one of the lane area, and an image information processing unit that trims an area outside the margin area to generate detailed image information and trims an area outside the lane area to generate wide-area image information; a display processing unit that performs display processing in association with second image information using position information , wherein the display processing unit performs display processing based on the first image information and the detailed image information; The detailed image information based on the second image information is displayed so as to be positioned next to each other, and the wide-area image information based on the first image information and the wide-area image information based on the second image information are displayed next to each other. It is an image processing system that displays so as to be located in

本発明のように構成することで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,従来のように画像情報同士の複雑な合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。 By configuring as in the present invention, image information is not lost even if fluctuation occurs in the transverse direction during photographing. In addition, since complicated processing for synthesizing image information as in the conventional method is not required, image information can be displayed by simple processing without requiring processing time.

第9の発明は,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う表示処理部,を有する画像処理システムである。
A ninth aspect of the present invention is an image processing system for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion, wherein the image processing system comprises the first detailed image information A first display format in which the image information and the second detailed image information are displayed side by side without performing expansion/contraction processing , and the first detailed image information expanded/contracted so that the length of the image information between unit distances is constant. and a display processing unit that performs display processing in a second display format for displaying second detailed image information side by side.

本発明のように構成することで,湾曲がある路面を撮影した場合であっても,第1の表示形式では凹凸などの異常を実際のサイズと同様の大きさで確認することができるとともに,第2の表示形式では,隣り合う画像情報同士の横断方向のずれが少なくなるので,画像情報を横断して存在する凹凸等の異常の全体像を容易に確認することができる。 By configuring as in the present invention, even when photographing a curved road surface, in the first display format, irregularities such as unevenness can be confirmed in the same size as the actual size. In the second display format, the deviation in the transverse direction between adjacent pieces of image information is reduced, so that the entire image of irregularities such as unevenness existing across the image information can be easily confirmed.

上述の発明において,前記表示処理部は,前記第1の表示形式において,対応する単位距離の位置関係が特定可能に表示する,画像処理システムのように構成することができる。 In the above-described invention, the display processing section can be configured as an image processing system that displays the positional relationship of the corresponding unit distances in the first display format so as to be identifiable.

第1の表示形式は,画像情報のサイズが伸縮されていないので,湾曲部分の内側と外側とでは画像情報の長さが相違する。そこで,本発明のように構成することで,単位距離の位置関係を容易に認識させることができる。 In the first display format, since the size of the image information is not expanded or contracted, the length of the image information differs between the inside and outside of the curved portion. Therefore, by configuring as in the present invention, it is possible to easily recognize the positional relationship of the unit distance.

上述の発明において,前記表示処理部は,前記第1の表示形式と,前記第2の表示形式とが切り替え可能である,画像処理システムのように構成することができる。 In the above invention, the display processing section can be configured as an image processing system capable of switching between the first display format and the second display format.

第1の表示形式は,画像情報のサイズが伸縮されていないので,湾曲部分の内側と外側のいずれの画像情報であっても,実際のサイズに近い。そのため,凹凸などの異常があったとしても画像情報から計測して誤差が少ない利点がある。一方,第2の表示形式は,第1の画像情報と第2の画像情報の横断方向のずれが少なくなるので,境界付近に存在する凹凸等の異常の全体像を画像情報から確認する場合には有益である。そこで,これらを切り替え可能とすることで,利用者がその目的に応じて適切な表示形式を選択でき,利用者の利便性を向上させることができる。 In the first display format, since the size of the image information is not expanded or contracted, the size of the image information is close to the actual size regardless of whether the image information is inside or outside the curved portion. Therefore, even if there are irregularities such as unevenness, there is an advantage that there is little error in measuring from the image information. On the other hand, in the second display format, the deviation in the transverse direction between the first image information and the second image information is small, so when confirming the whole image of irregularities such as unevenness existing near the boundary from the image information. is useful. Therefore, by making these switchable, the user can select an appropriate display format according to the purpose, and the user's convenience can be improved.

第1の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示処理部,として機能させ,前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれており,前記表示処理部は,前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う,画像処理プログラムである。
The image processing system of the first invention can be realized by loading and executing the program of the invention into a computer. That is, an image processing program for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion, wherein the image processing program causes a computer to process the first detailed image. In the lane area, which is the area of the road surface that must be photographed, specified in the information and the second detailed image information , and a constant width area provided on the outside of either one of the left and right of the lane area Based on a certain margin area, the first detailed image information and the second detailed image information are combined so that the margin area in the first detailed image information is positioned next to the second detailed image information. and a part or all of the shooting range of the margin area in the first detailed image information is a part or all of the shooting range of the lane area in the second detailed image information. The display processing unit includes a first display format in which the first detailed image information and the second detailed image information are displayed side by side without performing expansion/contraction processing, and image information between unit distances. An image processing program for performing display processing in a second display format for displaying side by side first detailed image information and second detailed image information expanded and contracted so that the length of the image is constant.

第2の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,撮影対象物の隣り合う範囲を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを,位置情報を対応させて表示する表示処理部,として機能させ,前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれる,画像処理プログラムである。
The image processing system of the second invention can be realized by loading and executing the program of the invention into a computer. That is, an image processing program for first detailed image information and second detailed image information obtained by photographing adjacent ranges of an object to be photographed, wherein the image processing program causes a computer to process the first detailed image information and the second detailed image information. The lane area, which is the area of the road surface that must be photographed, specified in the second detailed image information , and the margin, which is an area of a certain width provided outside the left and/or right of the lane area Based on the area, the first detailed image information and the second detailed image information are combined so that the margin area in the first detailed image information is positioned next to the second detailed image information. , a display processing unit that displays corresponding position information , and part or all of the shooting range of the margin area in the first detailed image information is the lane area in the second detailed image information. It is an image processing program that is included in part or all of the shooting range.

第8の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の画像情報と前記第2の画像情報について,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域とを特定し,前記マージン領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記レーン領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部,前記第1の画像情報と前記第2の画像情報とを位置情報を用いて対応づけて表示処理を行う表示処理部,として機能させ,前記表示処理部は,前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,画像処理プログラムである。
The image processing system of the eighth invention can be realized by loading and executing the program of the invention into a computer. That is, an image processing program for first image information and second image information obtained by photographing adjacent ranges of an object to be photographed, wherein the image processing program causes a computer to process the first image information and the second image information. With regard to the image information , specify the lane area, which is the area of the road surface that must be photographed, and the margin area, which is an area of a certain width provided outside the left and right sides or either one of the lane area, and the margin an image information processing unit that trims an area outside the area to generate detailed image information, and trims an area outside the lane area to generate wide-area image information; the first image information and the second image information; and a display processing unit that performs display processing in association with the image information using position information, and the display processing unit is configured to process the detailed image information and the second image information based on the first image information. and the wide-area image information based on the first image information and the wide-area image information based on the second image information are displayed so as to be adjacent to each other. It is an image processing program that displays.

第9の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う表示処理部,として機能させる画像処理プログラムである。 The image processing system of the ninth invention can be realized by loading and executing the program of the invention into a computer. That is, an image processing program for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion, wherein the image processing program causes a computer to process the first detailed image. A first display format in which information and second detailed image information are displayed side by side without performing expansion/contraction processing. This image processing program functions as a display processing unit that performs display processing in a second display format in which two pieces of detailed image information are displayed side by side .

本発明を用いることで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない画像処理システムが可能となる。また,撮影した結果をすぐに目視したい場合には,すぐに確認することができる画像処理システムを発明した。 By using the present invention, an image processing system that does not cause omission of image information even if fluctuation occurs in the transverse direction during photographing becomes possible. In addition, we have invented an image processing system that enables immediate visual confirmation of photographed results.

本発明の画像処理システムの全体の構成の一例を模式的に示すブロック図である。1 is a block diagram schematically showing an example of the overall configuration of an image processing system of the present invention; FIG. 本発明の画像処理システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。1 is a block diagram schematically showing an example of the hardware configuration of a computer used in the image processing system of the present invention; FIG. 本発明の画像処理システムにおける画像情報処理の処理プロセスの一例を示すフローチャートである。4 is a flow chart showing an example of a processing process of image information processing in the image processing system of the present invention; 本発明の画像処理システムにおける詳細画像情報の処理プロセスの一例を示すフローチャートである。4 is a flow chart showing an example of a detailed image information processing process in the image processing system of the present invention; 本発明の画像処理システムにおける広域画像情報の処理プロセスの一例を示すフローチャートである。5 is a flow chart showing an example of a wide area image information processing process in the image processing system of the present invention. 本発明の画像処理システムで処理対象とする画像情報および位置情報を計測するための移動体搭載装置を車両に取り付けた場合の側面図である。1 is a side view of a vehicle mounted with a device for measuring image information and position information to be processed by the image processing system of the present invention; FIG. 本発明の画像処理システムで処理対象とする画像情報および位置情報を計測するための移動体搭載装置を車両に取り付けた場合の後方図である。FIG. 2 is a rear view of a vehicle mounted with a device mounted on a moving body for measuring image information and position information to be processed by the image processing system of the present invention; 移動体搭載装置の構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing an example of a configuration of a device mounted on a mobile body; FIG. 撮影装置による撮影と照明装置による光の照射との関係を示す図である。It is a figure which shows the relationship between the imaging|photography by an imaging device, and irradiation of the light by an illuminating device. 撮影画像情報の伸縮を調整する伸縮処理を模式的に示す図である。FIG. 5 is a diagram schematically showing expansion/contraction processing for adjusting expansion/contraction of photographed image information; 撮影画像情報に対する剪断変形処理を模式的に示す図である。FIG. 10 is a diagram schematically showing shear deformation processing for photographed image information; 滑走路の路面をコースに区切り,各コースを移動体が走行して移動体搭載装置による撮影を行う場合を模式的に示す図である。FIG. 2 is a diagram schematically showing a case where the road surface of a runway is divided into courses, and a mobile body runs on each course and an image is captured by a mobile-body-mounted device. 移動体が書くコースを走行することにより撮影されたレーンの画像情報を,位置情報が対応するように時系列的に並べた状態を模式的に示す図である。FIG. 2 is a diagram schematically showing a state in which lane image information captured by a moving object running on a course drawn by the moving object is arranged in chronological order so that position information corresponds to the lane image information; 撮影画像情報においてレーン線と,マージン線とを特定し表示した状態の一例を示す。An example of a state in which lane lines and margin lines are identified and displayed in captured image information is shown. 詳細画像情報の一例を示す。An example of detailed image information is shown. 広域画像情報の一例を示す。An example of wide-area image information is shown. 位置情報の補正を模式的に示す図である。It is a figure which shows typically correction|amendment of a positional information. 詳細表示処理をした場合の一例を示す図である。It is a figure which shows an example when a detailed display process is performed. 広域表示処理をした場合の一例を示す図である。It is a figure which shows an example when wide display processing is performed. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の表示領域Bに広域画像情報として表示する一例を示す図である。FIG. 4 is a diagram showing an example of wide-area image information displayed in a display area B of a display screen; 表示画面の表示領域Cに詳細画像情報として表示する一例を示す図である。FIG. 10 is a diagram showing an example of detailed image information displayed in a display area C of a display screen; 湾曲箇所がある場合のコースの一例を示す図である。It is a figure which shows an example of a course when there exists a curved part. 実距離表示モードによるレーンの撮影画像情報の表示の一例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of display of captured image information of lanes in an actual distance display mode; キロポスト表示モードによるレーンの撮影画像情報の表示の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing an example of display of captured image information of lanes in a kilometer post display mode; 撮影対象とする路面をコースに区切り,各コースを移動体が走行して路面の撮影を行う場合を模式的に示す図である。FIG. 2 is a diagram schematically showing a case in which a road surface to be photographed is divided into courses, and a moving object travels along each course to photograph the road surface; 画像情報の合成処理において隣接する画像情報の対応点を特定する処理を模式的に示す図である。FIG. 10 is a diagram schematically showing a process of identifying corresponding points of adjacent image information in image information combining process; 画像情報の合成処理において対応点がすべて一致する各三角形に含まれる領域の画像情報をアフィン変換して画像情報同士を合成する処理を模式的に示す図である。FIG. 10 is a diagram schematically showing a process of affine transforming image information of regions included in triangles having matching points in the image information synthesizing process and synthesizing the image information with each other.

本発明の画像処理システム1の全体の構成の一例のブロック図を図1に示す。また,本発明の画像処理システム1で用いるコンピュータのハードウェア構成の一例のブロック図を図2に示す。 FIG. 1 shows a block diagram of an example of the overall configuration of the image processing system 1 of the present invention. Also, FIG. 2 shows a block diagram of an example of the hardware configuration of a computer used in the image processing system 1 of the present invention.

画像処理システム1は,後述する移動体搭載装置2で撮影した画像情報(撮影画像情報)と,計測した位置情報とを対応づけ,その表示処理を実行する。また,画像処理システム1は,移動体搭載装置2で撮影,計測した各情報が記録装置23に記録され,そこに記録された情報に基づいて処理を実行する。画像処理システム1の処理は,サーバやパーソナルコンピュータのほか,スマートフォンやタブレット型コンピュータなどの可搬型通信端末などのコンピュータによって実現される。 The image processing system 1 associates image information (photographed image information) photographed by a device mounted on a mobile body 2, which will be described later, with measured position information, and executes display processing thereof. Further, the image processing system 1 records each piece of information photographed and measured by the device 2 mounted on the mobile object in the recording device 23, and executes processing based on the information recorded therein. The processing of the image processing system 1 is realized by computers such as servers, personal computers, and portable communication terminals such as smartphones and tablet computers.

コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,ディスプレイなどの表示装置72と,情報の入力を行う入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報の通信をする通信装置74とを有している。なお,コンピュータがタッチパネルディスプレイを備えている場合には表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 The computer includes an arithmetic unit 70 such as a CPU for executing arithmetic processing of a program, a storage device 71 such as a RAM or hard disk for storing information, a display device 72 such as a display, an input device 73 for inputting information, It has a communication device 74 for communicating the processing result of the arithmetic device 70 and the information stored in the storage device 71 . If the computer has a touch panel display, the display device 72 and the input device 73 may be integrated. Touch panel displays are often used in portable communication terminals such as tablet computers and smartphones, but are not limited to these.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display using a predetermined input device (such as a pen for touch panel) or a finger.

画像処理システム1のコンピュータは,一台のコンピュータであってもよいし,その機能が複数のコンピュータによって実現されていてもよい。この場合のコンピュータとして,たとえばクラウドサーバであってもよい。 The computer of the image processing system 1 may be a single computer, or its functions may be realized by a plurality of computers. The computer in this case may be, for example, a cloud server.

本発明の画像処理システム1における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。 Each means in the image processing system 1 of the present invention is only logically distinguished in its function, and may physically or practically form the same area.

画像処理システム1は移動体搭載装置2で撮影した画像情報に基づいて処理を実行することが好ましいが,それに限定するものではない。 The image processing system 1 preferably executes processing based on image information captured by the device 2 mounted on a mobile body, but is not limited to this.

移動体搭載装置2は,路面を走行する車両Cなどの移動体に搭載される装置であって,路面を撮影する少なくとも1台以上の撮影装置20と,2台以上の撮影装置20がある場合に各撮影装置20を同期して撮影を行わせる同期装置22と,位置情報を計測する位置情報計測装置21と,撮影装置20で撮影した撮影画像情報および撮影時刻と位置情報計測装置21で計測した位置情報および時刻とを記録する記録装置23とを有する。 The moving body mounting device 2 is a device mounted on a moving body such as a vehicle C running on a road surface, and includes at least one or more imaging devices 20 for imaging the road surface and two or more imaging devices 20. A synchronizing device 22 for synchronizing each photographing device 20 to perform photographing, a position information measuring device 21 for measuring position information, photographed image information and photographing time taken by the photographing device 20, and measured by the position information measuring device 21 and a recording device 23 for recording position information and time.

移動体搭載装置2を搭載した移動体としての車両Cの一例を図6および図7を示す。図6は,移動体搭載装置2を搭載した車両Cの側面図であり,図7は,移動体搭載装置2を搭載した車両Cの背面図である。また図8に移動体搭載装置2の構成の一例をブロック図で示す。 6 and 7 show an example of a vehicle C as a mobile body on which the mobile body mounting apparatus 2 is mounted. FIG. 6 is a side view of the vehicle C on which the mobile body-mounted device 2 is mounted, and FIG. 7 is a rear view of the vehicle C on which the mobile body-mounted device 2 is mounted. FIG. 8 is a block diagram showing an example of the configuration of the mobile body mounting device 2. As shown in FIG.

撮影装置20は移動体が移動する路面を撮影する装置であって,少なくとも1台以上を備えている。なお,図6および図7では2台の撮影装置20を備えた場合を示している。撮影装置20としては,好ましくはラインセンサを用いることができるがそれに限定するものではない。ラインセンサは,線単位で路面状況を撮影する。たとえば1mm移動するたびに1mm分の路面を撮影をする。移動距離の検出は距離計を用いればよい。すなわち1mm移動することを距離計で検出することで撮影装置20により撮影を行う。ラインセンサはレンズとラインセンサ素子とを有する。ラインセンサのレンズは,路面を撮影可能なように,路面側に向けられている。ラインセンサは,路面の映像をレンズによってラインセンサ素子に結像させ,その光量をビデオ信号に変換して画像情報として出力する。ラインセンサが撮影した各画像情報は1mm分の画像情報である。そのため,ラインセンサは,所定の単位枚数分(たとえば1000枚分)の画像情報を連結し,一つの画像情報として後述する記録装置23に記録する。この単位枚数分の画像情報を撮影画像情報(またはフレーム)とする。 The photographing device 20 is a device for photographing the road surface on which the moving object moves, and includes at least one or more. It should be noted that FIGS. 6 and 7 show a case in which two imaging devices 20 are provided. A line sensor can preferably be used as the imaging device 20, but it is not limited to this. The line sensor captures the road surface condition line by line. For example, every 1 mm of movement, a 1 mm portion of the road surface is photographed. A rangefinder may be used to detect the movement distance. That is, when the rangefinder detects that the object moves by 1 mm, the photographing device 20 takes an image. The line sensor has a lens and a line sensor element. The line sensor lens is directed toward the road surface so that the road surface can be photographed. A line sensor forms an image of a road surface on a line sensor element through a lens, converts the amount of light into a video signal, and outputs the video signal as image information. Each image information captured by the line sensor is image information for 1 mm. Therefore, the line sensor connects image information for a predetermined number of unit sheets (for example, 1000 sheets) and records it as one piece of image information in the recording device 23, which will be described later. The image information for this unit number is used as captured image information (or frame).

撮影装置20は路面の撮影を開始する際には,位置情報計測装置21が所定のPPS信号を用いて,撮影装置20に対して計測開始のコマンドを送る。このコマンドを受け付けた撮影装置20は,撮影を開始するとともに,内蔵した計時手段を「0」にリセットして計時を開始する。そして,撮影装置20で所定の単位枚数,たとえば1000枚分を撮影したところで,計時手段で計時している時刻(相対時刻)を,撮影画像情報に対応づけて記録する。そして,計時手段はそのまま計時を継続し,次の単位枚数分の画像情報を撮影した時点における時刻を,撮影画像情報に対応づけて記録する。これを撮影が終了するまで反復する。すなわち,撮影装置20で単位枚数の画像情報を撮影するごとに,計時手段で計時している時刻(相対時刻)を記録し,撮影画像情報に対応づけて記録しておく。それぞれの単位枚数の画像情報を撮影するのに要した時間は,撮影画像情報に対応づけて記録している相対時刻の差分を演算すれば算出できる。このように撮影装置20での撮影を開始するタイミングと,位置情報計測装置21で位置情報および時刻情報を取得したタイミングとが同期をしていることから,撮影画像情報ごとの時刻情報は,位置情報計測装置21で取得した位置情報に,上記算出した時間を加算することで算出することができる。撮影画像情報ごとの時刻情報は,後述する画像情報処理部10の処理の際に算出をしてもよいし,撮影装置20が撮影画像情報を記録装置23に記録する際に行うなど,任意のタイミングで行うことができる。 When the photographing device 20 starts photographing the road surface, the position information measuring device 21 uses a predetermined PPS signal to send a measurement start command to the photographing device 20 . The photographing device 20 that has received this command starts photographing, resets the built-in timer means to "0", and starts clocking. Then, when a predetermined unit number of images, for example, 1000 images are taken by the photographing device 20, the time (relative time) measured by the time measuring means is recorded in association with the photographed image information. Then, the clocking means continues clocking, and records the time when the image information for the next unit number of images is captured in association with the captured image information. This is repeated until the shooting ends. That is, every time the photographing device 20 photographs a unit number of image information, the time measured by the clock means (relative time) is recorded and associated with the photographed image information. The time required to capture each unit of image information can be calculated by calculating the difference between the relative times recorded in association with the captured image information. In this way, the timing at which the photographing device 20 starts photographing and the timing at which the position information and time information are acquired by the position information measuring device 21 are synchronized. It can be calculated by adding the calculated time to the position information acquired by the information measuring device 21 . The time information for each piece of captured image information may be calculated during the processing of the image information processing unit 10, which will be described later, or may be calculated when the image capturing device 20 records the captured image information in the recording device 23. can be done in time.

上述の単位枚数の画像情報を撮影するのに要した時間の記録は,計時手段で単位枚数ごとの撮影に要した時間を計時するとともに,撮影画像情報の撮影順番を対応づけて記録しておくのでもよいし,ほかの方法であってもよい。 The recording of the time required to shoot the image information of the above-mentioned unit number is performed by measuring the time required for shooting each unit number by the timing means and recording the shooting order in correspondence with the shooting image information. or other methods.

なお,撮影装置20としてラインセンサを用いず,通常の光学式カメラなどを用いる場合には,その撮影をした画像情報が撮影画像情報であり,また撮影画像情報ごとの時刻情報を記録しておけばよい。 Note that when a normal optical camera or the like is used as the photographing device 20 without using a line sensor, the photographed image information is the photographed image information, and the time information for each piece of photographed image information must be recorded. Just do it.

移動体搭載装置2は,2台以上の撮影装置20がある場合には,同期装置22を備える。同期装置22は,移動体搭載装置2における少なくとも2台以上の撮影装置20の撮影タイミングを同期させて路面を撮影する。 The moving body mounting device 2 is provided with a synchronizing device 22 when there are two or more imaging devices 20 . The synchronizing device 22 synchronizes the photographing timings of at least two or more photographing devices 20 in the mobile body mounted device 2 to photograph the road surface.

位置情報計測装置21は,たとえばGPS装置であり,その位置情報を計測し,時刻情報を取得する。位置情報としてはたとえば緯度,経度が好ましいが,それに限定するものではない。位置情報計測装置21で計測した位置情報および時刻情報は,後述する記録装置23に記録する。位置情報計測装置21は,高精度のGPSレシーバー,たとえば「HemishereA101」などを用いることができる。 The positional information measurement device 21 is, for example, a GPS device, measures its positional information, and acquires time information. The position information is preferably latitude and longitude, but is not limited to this. The position information and time information measured by the position information measuring device 21 are recorded in a recording device 23, which will be described later. The position information measurement device 21 can use a highly accurate GPS receiver such as "Hemishere A101".

位置情報計測装置21は,一定のタイミングごとに位置情報および時刻情報を取得する。たとえば1秒間に10回,1秒間に20回などのタイミングで位置情報および時刻情報を取得する。 The position information measuring device 21 acquires position information and time information at regular timings. For example, position information and time information are acquired at timings such as 10 times per second and 20 times per second.

記録装置23は,撮影装置20で撮影した撮影画像情報と,位置情報計測装置21で計測した位置情報とを記録する。記録装置23は,移動体搭載装置2の一部として,移動体に設けてもよいし,クラウドサーバなどを用い,移動体の外部に設けてもよい。 The recording device 23 records captured image information captured by the imaging device 20 and position information measured by the position information measuring device 21 . The recording device 23 may be installed in the mobile object as part of the mobile object-mounted device 2, or may be installed outside the mobile object using a cloud server or the like.

移動体搭載装置2は,移動体にどのように取り付けられていてもよく,たとえば図6および図7に示すように,移動体の後方に取り付けられるとよいが,それに限定するものではない。たとえば移動体の前方に取り付けられていてもよい。撮影装置20は,移動体の後端部よりも後方に位置しており,路面を上方から撮影する。撮影装置20は,移動体のルーフキャリア40などに取り付けた金属製の取付ビーム26(支持体)の後端部付近に設置される。 The mobile body mounting device 2 may be attached to the mobile body in any way, and for example, as shown in FIGS. 6 and 7, it is preferable to attach it to the rear of the mobile body, but it is not limited to this. For example, it may be attached to the front of the moving body. The photographing device 20 is positioned behind the rear end of the moving body and photographs the road surface from above. The photographing device 20 is installed near the rear end of a metal mounting beam 26 (support) attached to a roof carrier 40 or the like of a moving body.

取付ビーム26における撮影装置20の取り付け箇所の近傍には,位置情報計測装置21が取り付けられている。 A position information measurement device 21 is attached near the attachment point of the imaging device 20 on the attachment beam 26 .

取付ビーム26の撮影装置20の付近から路面側に対して,支柱25aが下方に突出しており,照明装置24の上端部付近で接合している。また,照明装置24は,移動体の後端下部側に設けられた照明支持台27から上方に突出している支柱25b,25cとそれぞれ接合をしている。支柱25bは照明装置24の下方付近で接合しており,支柱25cは照明装置24の上方付近で接合している。なお,照明装置24の支持方法はいかなる方法であってもよい。 A post 25a protrudes downward from the vicinity of the imaging device 20 of the mounting beam 26 toward the road surface side, and is joined to the lighting device 24 in the vicinity of its upper end. Also, the lighting device 24 is joined to posts 25b and 25c projecting upward from a lighting support base 27 provided on the lower rear end side of the moving body. The strut 25b is joined near the lower part of the lighting device 24, and the strut 25c is joined near the upper part of the lighting device 24. As shown in FIG. Any method may be used to support the lighting device 24 .

照明装置24は,LEDなどの光源により,平行光または平行光に近い光を路面に対して照射する。照明装置24は,路面の変状に対してくっきりした均質の陰影ができるように路面を照らすために,路面に平行光に近い光を当てる。そのため光源としては指向性の高いLEDが好ましいが,それに限定されない。平行光を照射する角度は水平に近ければ陰影が大きくなりすぎ,垂直に近ければ陰影が生じないため,照明装置24を路面に対して一定の角度で傾けて照射することが好ましい。傾斜の方向は,撮影対象とする路面の特性に合わせればよい。撮影装置20による撮影と照明装置24による光の照射との関係を図9に示す。図9(a)では移動体の後方から撮影装置20による撮影と照明装置24による光の照射との関係を示す図であり,図9(b)は移動体の側方から撮影装置20による撮影と照明装置24による光の照射との関係を示す図である。撮影装置20の間隔Aは撮影対象とする幅方向の範囲,撮影装置20を取り付ける高さの位置関係,撮影装置20の画角にもよるが,たとえば260cm程度を撮影幅とし,撮影装置20を路面から140cm程度,撮影装置20の画角が約90度とすると,撮影装置20の間隔Aは,路面までの距離の約10%,たとえば14cm程度の間隔とすることが好ましい。 The illumination device 24 irradiates the road surface with parallel light or nearly parallel light from a light source such as an LED. The illumination device 24 irradiates the road surface with nearly parallel light in order to illuminate the road surface so as to produce a sharp and homogeneous shadow against the deformation of the road surface. Therefore, the light source is preferably an LED with high directivity, but is not limited to this. If the angle of irradiation with parallel light is close to horizontal, the shadow will be too large, and if it is close to vertical, no shadow will be generated. The direction of inclination should be matched to the characteristics of the road surface to be photographed. FIG. 9 shows the relationship between the photographing by the photographing device 20 and the irradiation of light by the lighting device 24 . FIG. 9(a) is a diagram showing the relationship between the photographing by the photographing device 20 from the rear of the moving body and the irradiation of light by the illumination device 24, and FIG. 3 is a diagram showing the relationship between , and irradiation of light by the illumination device 24. FIG. The interval A between the photographing devices 20 depends on the range in the width direction to be photographed, the positional relationship of the height at which the photographing devices 20 are mounted, and the angle of view of the photographing devices 20. Assuming that the distance from the road surface is about 140 cm and the angle of view of the photographing device 20 is about 90 degrees, the distance A between the photographing devices 20 is preferably about 10% of the distance to the road surface, for example about 14 cm.

なお,上記の寸法と各角度の関係は一例であって,寸法と角度はそれぞれ好適な関係となるように調整すればよい。 Note that the relationship between the dimensions and angles described above is merely an example, and the dimensions and angles may be adjusted so as to have suitable relationships.

また移動体の前方には,移動体の走行方向を路面に投影する投影装置30を備える。移動体には,図示しない管理コンピュータを備えておき,管理コンピュータによって特定されるガイド情報(移動体が走行すべき走行ルート(コース)を示すガイド情報)を投影装置30から投影する。管理コンピュータにおける処理および投影装置30からのガイド情報の投影の処理は,たとえば特開2017-090189号に記載の技術を用いることができるがそれに限定されない。 A projection device 30 for projecting the traveling direction of the moving body onto the road surface is provided in front of the moving body. The moving body is provided with a management computer (not shown), and the projecting device 30 projects guide information (guide information indicating a travel route (course) along which the moving body should travel) specified by the management computer. The processing in the management computer and the processing of projecting the guide information from the projection device 30 can use, for example, the technology described in Japanese Patent Application Laid-Open No. 2017-090189, but is not limited thereto.

管理コンピュータ(図示せず)は,たとえば以下のような処理によって実現できる。GPS装置などの位置情報を取得する装置(移動体搭載装置2の位置情報計測装置21を兼用してもよい)によって緯度,経度情報,進行方向の情報を取得する。また走行ガイドを行う実空間(撮影対象とする路面のある空間)の一部または全部を2次元または3次元モデル化した空間情報(仮想空間情報)を記憶しておく。この際に,仮想空間情報を所定間隔で長さ,幅方向に区切り,長さ方向を,撮影対象とする路面の撮影範囲の所定位置からの距離(たとえば,メートル単位で0から3000)で表し,幅方向を,幅方向の基準位置からの撮影範囲を考慮した所定幅ごとのコース番号(たとえば,中央のコース番号0を基準として,その左右のコース番号を-10から+10とする)で表す。そして取得した位置情報,進行方向の情報に基づいて,対応する仮想空間の情報の一部を投影装置30から移動体の走行方向の前方の路面に投影させる。このコースのガイド情報に従って,移動体の運転者は移動体の走行を行う。 A management computer (not shown) can be implemented by, for example, the following processing. Latitude, longitude information, and traveling direction information are acquired by a device for acquiring position information such as a GPS device (which may also be used as the position information measuring device 21 of the mobile body mounted device 2). Space information (virtual space information) obtained by two-dimensionally or three-dimensionally modeling part or all of the real space (the space with the road surface to be photographed) in which travel guidance is performed is also stored. At this time, the virtual space information is divided into length and width directions at predetermined intervals, and the length direction is expressed by the distance from the predetermined position of the shooting range of the road surface to be shot (for example, 0 to 3000 in units of meters). , the width direction is represented by a course number for each predetermined width considering the shooting range from the reference position in the width direction (for example, the course number 0 in the center is used as the reference, and the course numbers on the left and right are set from -10 to +10). . Then, based on the acquired position information and traveling direction information, a part of the corresponding information of the virtual space is projected from the projection device 30 onto the road surface in front of the traveling direction of the moving body. The driver of the mobile body drives the mobile body according to the guide information of this course.

なお,走行経路(コース)のガイドは,このような投影装置30を用いた場合,あるいは管理コンピュータによる処理以外の方法,たとえばカーナビゲーションシステムなどであってもよい。 The driving route (course) may be guided by using such a projection device 30 or by a method other than processing by a management computer, such as a car navigation system.

画像処理システム1は,移動体搭載装置2で記録した撮影画像情報,位置情報,時刻情報を用いて,撮影した画像情報を,表示装置72上で表示をする。画像処理システム1の処理を実行するコンピュータは,移動体搭載装置2を搭載した移動体に搭載されていてもよいし,移動体に搭載していなくてもよい。 The image processing system 1 displays the captured image information on the display device 72 using the captured image information, position information, and time information recorded by the device 2 mounted on the mobile object. The computer that executes the processing of the image processing system 1 may be mounted on the moving body on which the moving body mounting device 2 is mounted, or may not be mounted on the moving body.

画像処理システム1は,画像情報処理部10と位置情報処理部11と画像情報記憶部12と表示処理部13とを有する。 The image processing system 1 has an image information processing section 10 , a position information processing section 11 , an image information storage section 12 and a display processing section 13 .

画像情報処理部10は,移動体搭載装置2の記録装置23に記録した撮影画像情報を取得し,後述の画像情報記憶部12に記憶させる。画像情報処理部10は,必要に応じて,撮影画像情報に対して補正処理を実行してもよい。 The image information processing section 10 acquires the photographed image information recorded in the recording device 23 of the device mounted on the mobile object 2, and stores it in the image information storage section 12, which will be described later. The image information processing unit 10 may perform correction processing on the captured image information as necessary.

画像情報処理部10は,撮影装置20が複数ある場合には,いずれか一つの撮影装置20を選択し,選択した撮影装置20で撮影した撮影画像情報を時系列的につなげることで,路面の表面を連続させた画像情報とすることができる。 When there are a plurality of image capturing devices 20, the image information processing unit 10 selects one of the image capturing devices 20, and connects the captured image information captured by the selected image capturing device 20 in chronological order, so that the road surface is displayed. Image information can be obtained by making the surface continuous.

なお,画像情報処理部10は,撮影装置20が複数ある場合には,それぞれで撮影した撮影画像情報の共通の撮影範囲のみをトリミングしてもよい。 Note that when there are a plurality of image capturing devices 20, the image information processing unit 10 may trim only the common image capturing range of the image information captured by each.

画像情報処理部10は,撮影画像情報の伸縮を調整し,その大きさを補正する伸縮処理を実行する。移動体における距離計には誤差があることから,この誤差を,撮影画像情報を伸縮することで補正する。たとえば1mmの単位で計測する距離計に1%の誤差がある場合,3000mの滑走路では始点と終点で30mの誤差が生じる。そのため,撮影画像情報をそのまま連続的に並べたときに,後述する位置情報処理部11で補正した位置情報を用いて,撮影画像情報の伸縮を調整し,その大きさを補正することで,そのずれが最小となるようにする。 The image information processing unit 10 adjusts the expansion/contraction of the photographed image information and executes expansion/contraction processing for correcting the size. Since there is an error in the rangefinder of a moving object, this error is corrected by expanding or contracting the captured image information. For example, if there is a 1% error in a rangefinder that measures in units of 1 mm, a 3000 m runway will have an error of 30 m between the start and end points. Therefore, when the photographed image information is arranged continuously as it is, the position information corrected by the position information processing unit 11, which will be described later, is used to adjust the expansion and contraction of the photographed image information. Minimize deviation.

この処理を模式的に示すのが図10である。図10では撮影装置20としてラインセンサを用いた場合を示している。まず画像情報処理部10は,撮影画像情報を,それぞれ撮影した時刻の順番に整列する。撮影装置20による撮影を開始するタイミング(rt0)と,位置情報計測装置21による時刻情報(at0)とは同期をしていることから,位置情報計測装置21で時刻情報を取得した時点から撮影装置20による撮影が開始されている。そして,撮影画像情報ごとに相対時間(rt1,rt2,rt3,・・・)が対応づけて記録されている。一方,位置情報計測装置21は,所定の間隔,たとえば1秒間に10回または20回などの間隔で,位置情報と時刻情報とを取得しているが,撮影画像情報の幅(たとえば所定単位の枚数が1000枚のとき1m)となったときに,必ずしも位置情報計測装置21で位置情報を取得しているとは限らない。 FIG. 10 schematically shows this processing. FIG. 10 shows a case where a line sensor is used as the imaging device 20 . First, the image information processing unit 10 arranges the photographed image information in order of photographing time. Since the timing (rt0) at which imaging by the imaging device 20 is started and the time information (at0) by the positional information measuring device 21 are synchronized, the imaging device starts from the time when the time information is acquired by the positional information measuring device 21. 20 has started shooting. Relative times (rt1, rt2, rt3, . On the other hand, the position information measurement device 21 acquires position information and time information at predetermined intervals, for example, 10 or 20 times per second. When the number of sheets is 1 m) when the number of sheets is 1000, the position information is not necessarily acquired by the position information measuring device 21 .

そこで,画像情報処理部10は撮影画像情報の終端に対応する位置情報を算出する。具体的には,たとえば撮影画像情報2では,位置情報計測装置21で取得した時刻情報at6とat7の間で撮影画像情報2の終端に対応する位置がある。そこで,位置情報計測装置21で取得した時刻情報at6のときの位置情報P6(図10のC)と,位置情報計測装置21で取得した時刻情報at7のときの位置情報P7(図10のB)とから,比例配分によって,撮影画像情報2の終端に対応する位置(図10のA)を算出することができる。 Therefore, the image information processing unit 10 calculates position information corresponding to the end of the captured image information. Specifically, for example, in the photographed image information 2, there is a position corresponding to the end of the photographed image information 2 between the time information at6 and at7 acquired by the position information measuring device 21. FIG. Therefore, position information P6 (C in FIG. 10) at time information at6 acquired by the position information measuring device 21 and position information P7 at time information at7 acquired by the position information measuring device 21 (B in FIG. 10) , the position corresponding to the end of the captured image information 2 (A in FIG. 10) can be calculated by proportional allocation.

比例配分の算出方法にはさまざまなものがあるが,撮影画像情報2の終端に対応する位置における相対時間rt2は分かっているので,位置情報計測装置21で取得した時刻情報at0に,撮影画像情報ごとの相対時間rt1,rt2を加算することで,撮影画像情報2の終端に対応する位置Aにおける時刻情報を特定できる。ここで特定した時刻情報と,位置情報計測装置21で取得した時刻情報at6,at7とを比例配分することで比率が特定できるので,時刻情報at6のときの位置情報P6と,時刻情報at7のときの位置情報P7とを上記比率を用いて演算することで,撮影画像情報2の終端に対応する位置Aの位置情報を特定できる。 There are various methods for calculating the proportional distribution. Time information at the position A corresponding to the end of the captured image information 2 can be specified by adding the relative times rt1 and rt2 for each time. By proportionally distributing the time information specified here and the time information at6 and at7 acquired by the position information measuring device 21, the ratio can be specified. By calculating the position information P7 using the above ratio, the position information of the position A corresponding to the end of the captured image information 2 can be specified.

このように,撮影画像情報ごとの位置情報が特定できれば,撮影画像情報の始端位置(始端位置は隣接する一つ前の撮影画像情報の終端位置)と終端位置とを比較することで撮影画像情報の実際の距離が算出できる。一方,撮影装置20は,所定単位の枚数,たとえば1mm分の1000枚の画像情報で構成されているので,その幅は1mである。そうすると,上記で算出した実際の距離と,所定単位の枚数と撮影の幅に基づく幅1mとを比較して,そのずれが撮影画像情報の伸縮率となる。たとえば,実際の距離が1010mmである場合,1%のずれがあるので,当該撮影画像情報を1%伸ばす処理を行う。この処理を撮影画像情報ごとに実行することで,撮影画像情報について,位置情報計測装置21で計測した精度の高い位置情報に基づく距離と合致するように,撮影画像情報を伸縮し,その大きさを補正することができる。 In this way, if the position information for each shot image information can be specified, the shot image information can be obtained by comparing the start position of the shot image information (the start position is the end position of the adjacent previous shot image information) and the end position. can be calculated. On the other hand, the photographing device 20 has a width of 1 m because it is composed of image information of a predetermined number of sheets, for example, 1000 sheets of 1 mm. Then, the actual distance calculated above is compared with the width of 1 m based on the number of predetermined units and the photographing width, and the difference between them becomes the expansion/contraction rate of the photographed image information. For example, if the actual distance is 1010 mm, there is a deviation of 1%, so processing is performed to extend the captured image information by 1%. By executing this process for each captured image information, the captured image information is expanded or contracted so that it matches the distance based on the highly accurate position information measured by the position information measuring device 21, and the size of the captured image information is adjusted. can be corrected.

さらに画像情報処理部10は,移動体の進行方向に対する横方向のずれを補正する剪断変形処理も実行する。これは,撮影画像情報の始端位置と終端位置との進行方向に対する横方向の位置情報の変化によって剪断変形処理を実行することで行える。この処理を図11に模式的に示す。 Further, the image information processing unit 10 also executes a shearing deformation process for correcting a lateral shift with respect to the moving direction of the moving object. This can be done by executing shearing deformation processing based on changes in positional information in the lateral direction with respect to the traveling direction between the start position and the end position of the captured image information. This processing is schematically shown in FIG.

画像情報処理部10は,上述のように撮影画像情報に対して,伸縮処理,剪断変形処理などのほか,台形補正処理,ノイズ除去処理などの適宜,必要な補正処理を実行してもよい。 The image information processing unit 10 may perform appropriate necessary correction processing such as trapezoidal correction processing, noise removal processing, etc., in addition to stretching processing, shearing deformation processing, etc., on the photographed image information as described above.

また,図12に示すように,たとえば滑走路の路面をコース1,コース2として区切り,各コースを移動体が走行して移動体搭載装置2による撮影をそれぞれ行う場合,コース1を走行することにより撮影されたレーン1の撮影画像情報(補正後の撮影画像情報も含む。本明細書において同様),コース2を走行することにより撮影されたレーン2の撮影画像情報を,位置情報が対応するように時系列的に並べた状態は図13に示すようになる。補正後の撮影画像情報においても揺らぎが生じるのは,剪断変形処理によっても補正できない横断方向への揺らぎが生じるからである。なお,図12以降における斜線部分は,レーン間の関係をわかりやすくするために付しているものである。 Further, as shown in FIG. 12, for example, when the road surface of the runway is divided into course 1 and course 2, and the moving body travels on each course and performs photographing by the moving body mounted device 2, the course 1 is run. The position information corresponds to the captured image information of lane 1 captured by (including the captured image information after correction; the same applies in this specification) and the captured image information of lane 2 captured by traveling on course 2. FIG. 13 shows the state in which they are arranged in chronological order. The reason why the photographed image information after correction also fluctuates is that there is fluctuation in the transverse direction that cannot be corrected even by the shear deformation process. It should be noted that the hatched portions in FIG. 12 and subsequent figures are added to facilitate understanding of the relationship between the lanes.

そこで,画像情報処理部10は,撮影画像情報について,レーンの領域を示すレーン線Lと,マージン領域を示すマージン線Mとを設定する。レーンの領域とは,上述のように,移動体コースを走行することで撮影しなければならない路面の領域であって,撮影装置20の撮影範囲から任意の幅で設定する。ここで理想的にはコースの横断方向の位置情報とレーンの領域の横断方向の中心の位置情報とは一致する。そこで,コースの横断方向の位置情報に対応する位置を撮影画像情報から特定し,そこから横断方向に所定の幅(たとえば横断方向の中心から左右に100cmずつ)の位置にレーン線Lを設定し,レーンの領域とする。マージン領域とは,移動体の走行に際してレーンの横断方向への揺らぎを考慮してレーン領域の左右両方またはいずれか一方の外側に設けた一定の幅(たとえばレーン線Lから20cm外側)の領域である。したがってマージン領域は,隣接するレーンのレーン領域の内側となる。図14に,撮影画像情報においてレーン線Lと,マージン線Mとを特定し表示した状態を示す。ここではレーン領域の外側にマージン領域を設ける構成としたが,レーン領域の内側にマージン領域を設けるようにしてもよい。その場合には,以下の処理において,レーン線Lとマージン線Mとはそれぞれ逆に読み替えることとなる。 Therefore, the image information processing unit 10 sets a lane line L indicating a lane area and a margin line M indicating a margin area for the captured image information. As described above, the lane area is the area of the road surface that must be photographed as the mobile body travels on the course, and is set with an arbitrary width from the photographing range of the photographing device 20 . Here, ideally, the positional information in the transverse direction of the course coincides with the positional information of the center in the transverse direction of the lane area. Therefore, the position corresponding to the position information in the transverse direction of the course is specified from the photographed image information, and the lane line L is set at a predetermined width in the transverse direction (for example, 100 cm left and right from the center in the transverse direction). , the region of the lane. A margin area is an area of a certain width (e.g., 20 cm outside the lane line L) provided on the left, right, or either side of the lane area in consideration of fluctuations in the transverse direction of the lane when a mobile object travels. be. Therefore, the margin area is inside the lane area of the adjacent lane. FIG. 14 shows a state in which lane lines L and margin lines M are specified and displayed in the captured image information. Although the margin area is provided outside the lane area here, the margin area may be provided inside the lane area. In that case, the lane line L and the margin line M are read in reverse in the following processing.

マージン領域の幅は,移動体の走行の精度で定める。たとえば移動体を自動走行している場合には,自動走行における左右方向へのずれに応じた精度,投影装置30による走行ガイドを基準として人が移動体を運転する場合であれば,その人の技量に応じた精度などに基づいて,任意に設定する。撮影装置20によって撮影する範囲の幅は,少なくとも,レーン領域とする幅に対して,左右のマージン幅を加算したものとなる。撮影装置20によって撮影する範囲の幅が定まっている場合には,撮影範囲の幅からマージン幅として設定した幅を除いた幅がレーン領域の幅とすることができる。レーン領域の幅が200cm,マージン幅として左右に20cmずつとする場合には,撮影装置20によって撮影する幅は240cm以上とする。 The width of the margin area is determined by the running accuracy of the moving object. For example, when a moving object is automatically traveling, the accuracy corresponding to the deviation in the left and right direction in automatic traveling, and when a person drives the moving object based on the traveling guide by the projection device 30, the person It is set arbitrarily based on the accuracy according to skill. The width of the range photographed by the photographing device 20 is at least the width of the lane area plus the left and right margin widths. When the width of the range photographed by the photographing device 20 is fixed, the width of the lane area can be obtained by subtracting the width set as the margin width from the width of the photographing range. When the width of the lane area is 200 cm and the width of the margin is 20 cm on each side, the width of the image captured by the imaging device 20 is set to 240 cm or more.

画像情報処理部10は,マージン線Mよりも外側の画像情報の領域はトリミングをし,マージン線Mよりも内側であって,撮影ができていない領域に対しては,黒塗りするなどの所定の画像処理を加えて,詳細画像情報として画像情報記憶部12に記憶させる。図15に詳細画像情報の一例を示す。図15(a)は移動体がコース1を走行することで撮影したレーン1の撮影画像情報に基づくレーン1の詳細画像情報であり,図15(b)は移動体がコース2を走行することで撮影したレーン2の撮影画像情報に基づくレーン2の詳細画像情報である。また,画像情報処理部10は,レーン線Lよりも外側の画像情報の領域はトリミングをして,広域画像情報として画像情報記憶部12に記憶させる。図16に広域画像情報の一例を示す。図16(a)は移動体がコース1を走行することで撮影したレーン1の撮影画像情報に基づくレーン1の広域画像情報であり,図16(b)は移動体がコース2を走行することで撮影したレーン2の撮影画像情報に基づくレーン2の広域画像情報である。 The image information processing unit 10 trims the area of the image information outside the margin line M, and performs predetermined processing such as blacking out the area inside the margin line M that cannot be photographed. image processing, and stored in the image information storage unit 12 as detailed image information. FIG. 15 shows an example of detailed image information. FIG. 15(a) shows detailed image information of Lane 1 based on the captured image information of Lane 1 captured by the moving object running on Course 1, and FIG. 2 is detailed image information of Lane 2 based on the captured image information of Lane 2 captured in . Further, the image information processing unit 10 trims the area of the image information outside the lane line L and stores it in the image information storage unit 12 as wide area image information. FIG. 16 shows an example of wide-area image information. FIG. 16(a) shows the wide area image information of lane 1 based on the captured image information of lane 1 captured by the moving object running on course 1, and FIG. This is wide-area image information of lane 2 based on the captured image information of lane 2 captured in .

位置情報処理部11は,移動体搭載装置2の記録装置23に記録した位置情報および時刻情報を取得し,位置情報計測装置21で計測した位置情報を,撮影装置20(撮影画像装置が複数ある場合には,撮影画像情報を撮影した撮影装置20)の位置情報に補正する。位置情報の補正は,位置情報処理部11で取得した位置情報について,補正対象とする撮影装置20と位置情報計測装置21との位置のずれ量(撮影装置20と位置情報計測装置21とが離れている距離を示す横方向のオフセット)から補正する。これを模式的に示すのが図17である。 The position information processing unit 11 acquires the position information and time information recorded in the recording device 23 of the moving body mounted device 2, and transfers the position information measured by the position information measuring device 21 to the photographing device 20 (there are a plurality of photographing image devices). In this case, the captured image information is corrected to the position information of the image capturing device 20) that captured the image. Correction of the position information is performed by adjusting the positional information acquired by the position information processing unit 11 by adjusting the amount of positional deviation between the imaging device 20 to be corrected and the positional information measuring device 21 (the separation between the imaging device 20 and the positional information measuring device 21). horizontal offset). FIG. 17 schematically shows this.

なお,画像情報処理部10において,撮影装置20が複数ある場合に,撮影装置20のそれぞれで撮影した撮影画像情報の共通の撮影範囲のみをトリミングしている場合,得られた画像情報の中央は,撮影装置20a,20bの中央線と一致することから,位置情報処理部11の補正処理を実行しなくてもよい。 In the image information processing unit 10, when there are a plurality of photographing devices 20 and only the common photographing range of the photographed image information photographed by each of the photographing devices 20 is trimmed, the center of the obtained image information is , and the center lines of the photographing devices 20a and 20b, the correction processing of the position information processing unit 11 need not be executed.

画像情報記憶部12は,撮影画像情報,広域画像情報,詳細画像情報などの画像情報を記憶する。これらの画像情報は,それぞれ位置情報と対応づけられている。 The image information storage unit 12 stores image information such as photographed image information, wide area image information, and detailed image information. Each piece of image information is associated with position information.

表示処理部13は,画像情報記憶部12に記憶した画像情報に基づいて表示処理を実行する。表示処理部13は,画像情報記憶部12に記憶した画像情報に基づいて,撮影対象とした路面をコースごとに並べて表示を行う。この際の表示処理としては,撮影対象とした路面を詳細に表示する詳細表示処理と,詳細表示よりも広域の範囲を表示する広域表示処理とを行う。 The display processing section 13 executes display processing based on the image information stored in the image information storage section 12 . Based on the image information stored in the image information storage unit 12, the display processing unit 13 arranges and displays the road surfaces to be photographed for each course. As the display processing at this time, a detailed display processing for displaying details of the road surface to be photographed and a wide-area display processing for displaying a wider range than the detailed display are performed.

詳細表示処理は,撮影画像情報のうちマージン領域の外側をトリミングした画像情報である詳細画像情報をコースごとに並べて表示をする表示処理である。詳細表示処理をした場合の一例を図18に示す。図18に示すように,詳細画像情報をコースごとに並べて表示をする場合には,各コースを走行することで撮影した各レーンの撮影画像情報に基づく詳細画像情報は,マージン線Mを各コースの区切り線として並置して表示される。そのため,コースを区別する線がマージン線Mとなり,その内側にある線がレーン線Lとなる。なお,図18では詳細画像情報をコースごとに隣接させて表示しているが,隣接させていなくてもよい。 The detailed display processing is a display processing for arranging and displaying the detailed image information, which is image information obtained by trimming the outside of the margin area of the photographed image information, for each course. FIG. 18 shows an example of detailed display processing. As shown in FIG. 18, when the detailed image information is displayed side by side for each course, the detailed image information based on the photographed image information of each lane photographed by traveling on each course is displayed with the margin line M for each course. are displayed side by side as separator lines. Therefore, the line that distinguishes the courses is the margin line M, and the line inside the margin line is the lane line L. Although detailed image information is displayed adjacent to each course in FIG. 18, they may not be adjacent to each other.

また広域表示処理は,撮影画像情報のうちレーン領域の外側をトリミングした画像情報である広域画像情報をコースごとに並べて表示をする表示処理である。広域表示処理をした場合の一例を図19に示す。図19に示すように,広域画像情報をコースごとに並べて表示をする場合には,各コースを走行することで撮影した各レーンの撮影画像情報に基づく広域画像情報は,レーン線Lを各コースの区切り線として並置して表示される。そのため,コースを区別する線がレーン線Lとなり,マージン領域およびマージン領域の画像情報は表示されない。図19では広域画像情報をコースごとに隣接させて表示しているが,隣接させていなくてもよい。 The wide-area display processing is display processing for arranging and displaying, for each course, wide-area image information, which is image information obtained by trimming the outside of the lane area of the photographed image information. FIG. 19 shows an example of wide-area display processing. As shown in FIG. 19, when the wide-area image information is arranged and displayed for each course, the wide-area image information based on the photographed image information of each lane photographed by traveling on each course is displayed on each course along the lane line L. are displayed side by side as separator lines. Therefore, the lines that distinguish the courses are the lane lines L, and the margin areas and the image information of the margin areas are not displayed. In FIG. 19, the wide-area image information is displayed adjacent to each other for each course, but they do not have to be adjacent.

たとえば幅60メートルの滑走路があり,それを幅2メートルのコースで分割した場合,60個のコースに分割される。そしてマージン幅を20cmとした場合,レーン幅は2メートルとなるので,撮影装置20では少なくとも240cm(=200cm+20cm+20cm)で撮影をすることとなる。そして詳細表示処理の際には,240cm幅の詳細画像情報をコース順に並べて表示をする。また広域表示処理の際には,200cm幅の広域画像情報をコース順に並べて表示をする。 For example, if there is a runway with a width of 60 meters and it is divided into courses with a width of 2 meters, it will be divided into 60 courses. When the margin width is 20 cm, the lane width is 2 meters, so the photographing device 20 will photograph at least 240 cm (=200 cm+20 cm+20 cm). Then, in the detailed display process, the detailed image information of 240 cm width is arranged in order of course and displayed. Also, in wide-area display processing, wide-area image information with a width of 200 cm is arranged in order of course and displayed.

表示処理部13は,あらかじめ画像情報処理部10において生成され,画像情報記憶部12に記憶した詳細画像情報,広域画像情報に基づいて詳細表示処理,広域表示処理を行う場合を説明したが,あらかじめ画像情報処理部10において詳細画像情報,広域画像情報を生成するのではなく,表示処理の際に,撮影画像情報に基づいて詳細画像情報,広域画像情報を生成して表示してもよい。また詳細画像情報のみをあらかじめ生成して画像情報記憶部12に記憶させておき,広域画像情報は表示処理の際に生成して表示してもよい。 The display processing unit 13 performs detailed display processing and wide-area display processing based on detailed image information and wide-area image information generated in advance by the image information processing unit 10 and stored in the image information storage unit 12. Instead of generating detailed image information and wide-area image information in the image information processing unit 10, detailed image information and wide-area image information may be generated and displayed based on captured image information during display processing. Alternatively, only the detailed image information may be generated in advance and stored in the image information storage unit 12, and the wide area image information may be generated and displayed during display processing.

表示処理部13は,詳細表示と広域表示とを連動させて,あるいは切り替えて表示を行う表示画面を表示させる。図20に詳細表示と広域表示とを連動させて表示を行う表示画面の一例を示す。 The display processing unit 13 displays a display screen that interlocks or switches between detailed display and wide-area display. FIG. 20 shows an example of a display screen on which detailed display and wide-area display are displayed in conjunction with each other.

図20の表示画面は,撮影対象とした路面(滑走路)の全体を進行方向,横断方向にそれぞれブロック状に分割をして選択可能とした表示領域A,広域表示処理を行う表示領域B,詳細表示処理を行う表示領域C,路面にある凹凸等の異常に関する情報を表示する表示領域Dの4つの表示領域を有する場合を示している。 The display screen in FIG. 20 includes a display area A in which the entire road surface (runway) to be photographed is divided into blocks in the direction of travel and in the transverse direction for selection, a display area B in which wide-area display processing is performed, A case is shown in which there are four display areas: a display area C for detailed display processing, and a display area D for displaying information about irregularities such as unevenness on the road surface.

表示処理部13は,表示領域Aにおいて,画像情報を表示させたい位置のブロックA1が選択されたことを受け付けると,その位置情報に応じた広域画像情報を画像情報記憶部12から抽出して表示領域Bに表示させる。また,表示領域Bにおいて,詳細に表示をしたい領域B1の選択を受け付けると,選択された領域の中心の位置情報に基づいて,対応する詳細画像情報を画像情報記憶部12から抽出して表示領域Cに表示させる。 When the display processing unit 13 receives that the block A1 at the position where the image information is to be displayed is selected in the display area A, the wide area image information corresponding to the position information is extracted from the image information storage unit 12 and displayed. Display in area B. In the display area B, when the selection of the area B1 desired to be displayed in detail is accepted, the corresponding detailed image information is extracted from the image information storage unit 12 based on the position information of the center of the selected area, and the display area is displayed. Display on C.

表示領域Bに広域画像情報として表示する一例を図21に示す。また表示領域Cに詳細画像情報として表示する一例を図22に示す。なお,図21および図22は,広域表示処理と広域表示処理とで表示させる領域の相違をわかりやすくするため,ほぼ同じ領域の画像情報をほぼ同じ縮尺率で表示させている場合である。実際には,広域表示処理と詳細表示処理とで異なる縮尺率で表示されてもよい。 FIG. 21 shows an example of display in the display area B as wide-area image information. An example of displaying detailed image information in the display area C is shown in FIG. In FIGS. 21 and 22, in order to make it easier to understand the difference in the areas displayed in the wide area display process and the wide area display process, image information in almost the same area is displayed at almost the same scale. In practice, the wide area display process and the detailed display process may be displayed at different scales.

表示領域Dに表示される路面の凹凸等の異常に関する情報としては,それぞれの異常に対して,異常の種類(ひび割れなど),大きさ,位置情報などが対応づけられているので,表示処理部13は,選択された異常の位置情報に基づいて,対応する位置にある広域画像情報,詳細画像情報をそれぞれ画像情報記憶部12から抽出し,広域画像情報は領域Bに,詳細画像情報は領域Cにそれぞれ表示させる。 As the information related to anomalies such as unevenness of the road surface displayed in the display area D, each anomaly is associated with the type of anomaly (cracks, etc.), size, position information, etc. 13 extracts wide area image information and detailed image information at the corresponding position from the image information storage unit 12 based on the position information of the selected abnormality. Display each in C.

つぎに本発明の画像処理システム1の処理プロセスの一例を図3乃至図5のフローチャートを用いて説明する。なお,以下の説明では移動体として車両Cの場合,撮影対象として滑走路の路面の場合を説明するが,それぞれ上記に限定するものではなく,移動体としては車両Cのほか,ドローンなどの飛翔体であってもよいし,撮影対象も滑走路の路面のほか,道路の路面など,ほかの対象物であってもよい。 Next, an example of the processing process of the image processing system 1 of the present invention will be described with reference to the flow charts of FIGS. 3 to 5. FIG. In the following description, a vehicle C is used as a moving object, and a runway road surface is used as an object to be photographed. It may be a body, and the object to be photographed may be a surface of a runway, a surface of a road, or other objects.

本発明の画像処理システム1で処理対象とする画像情報を撮影するため,車両Cの後方に移動体搭載装置2を取り付ける。そして撮影対象とする滑走路を車両Cで走行する。滑走路を車両Cで走行する際には,管理システム(図示せず)が車両Cの前方上方に設置した投影装置30から走行ガイドを路面に投影し,そのコースに従って走行をし,移動体搭載装置2で路面の撮影を行う。 In order to photograph image information to be processed by the image processing system 1 of the present invention, a moving object mounting device 2 is attached to the rear of a vehicle C. As shown in FIG. Then, the vehicle C runs on the runway to be photographed. When the vehicle C runs on the runway, a management system (not shown) projects a running guide onto the road surface from a projection device 30 installed in front and above the vehicle C, and the vehicle runs according to the course, and is mounted on the mobile body. A road surface is photographed by the device 2 .

滑走路を走行する際には,移動体搭載装置2における位置情報計測装置21は,定期的に(たとえば1秒間に10回,20回),位置情報と時刻情報を取得する。取得した位置情報と時刻情報は,対応づけて記録装置23に記録する。また,各撮影装置20は,車両Cが所定の撮影単位,たとえば1mm移動することを距離計で計測すると,滑走路の路面を撮影する。各撮影装置20で撮影した各撮影画像情報にはその相対時間,または位置情報計測装置21で計時した時刻情報と相対時間を用いて算出される時刻情報とを対応づけて記録装置23に記録する。なお,移動体搭載装置2には2台以上の撮影装置20a,bがある場合,同期装置22により各撮影装置20a,bを同期して撮影を行うとともに,どの撮影装置20による撮影画像情報であるのか,撮影装置20ごとに識別可能とする。これは撮影した撮影画像情報に撮影装置20の識別情報が付されていてもよいし,撮影画像情報を保存するフォルダが撮影装置20ごとに分かれていてもよい。 When traveling on the runway, the positional information measuring device 21 in the mobile body mounted device 2 acquires positional information and time information periodically (for example, 10 times or 20 times per second). The acquired position information and time information are recorded in the recording device 23 in association with each other. Further, each photographing device 20 photographs the road surface of the runway when the movement of the vehicle C by a predetermined photographing unit, for example, 1 mm is measured by a rangefinder. The relative time or the time information measured by the position information measuring device 21 and the time information calculated using the relative time are associated with each photographed image information photographed by each photographing device 20 and recorded in the recording device 23. . In addition, when there are two or more photographing devices 20a and 20b in the mobile body mounting device 2, the photographing devices 20a and 20b are synchronized by the synchronization device 22, and the photographed image information of which photographing device 20 is used. It is possible to identify whether or not there is one for each photographing device 20 . The identification information of the photographing device 20 may be attached to the photographed image information, or the folders for storing the photographed image information may be divided for each photographing device 20 .

以上のように,車両Cが滑走路を走行することで撮影した滑走路の路面の撮影画像情報と相対時間または時刻情報,位置情報と時刻情報とが記録装置23に記録される。 As described above, as the vehicle C runs on the runway, the photographed image information of the runway road surface photographed, the relative time or time information, and the position information and time information are recorded in the recording device 23 .

そして記録装置23に記録された撮影装置20の撮影画像情報と相対時間または時刻情報,位置情報と時刻情報とに基づいて,画像処理システム1が各処理を実行する。画像処理システム1の処理は,バッチ処理でもリアルタイム処理でもよい。記録装置23が車両Cに設けられる場合には,画像処理システム1を構成するコンピュータが記録装置23から有線または無線で情報を取得してもよいし,車両Cの外,たとえばクラウドサーバに設けられる場合には,画像処理システム1を構成するコンピュータが当該クラウドサーバから情報を取得してもよい。 Then, the image processing system 1 executes each process based on the captured image information and the relative time or time information of the image capturing device 20 and the position information and time information recorded in the recording device 23 . The processing of the image processing system 1 may be batch processing or real-time processing. When the recording device 23 is provided in the vehicle C, the computer constituting the image processing system 1 may acquire information from the recording device 23 by wire or wirelessly, or may be provided outside the vehicle C, for example, in a cloud server. In that case, the computer that configures the image processing system 1 may acquire the information from the cloud server.

まず画像情報処理部10は,移動体搭載装置2の記録装置23に記録した撮影画像情報を取得する(S100)。そして取得した撮影画像情報とその相対時間または時刻情報とを対応づける。また画像情報処理部10は,撮影装置20で撮影した撮影画像情報を時系列的につなげる。これによって,滑走路を連続的に撮影した撮影画像情報が生成できる。 First, the image information processing section 10 acquires the photographed image information recorded in the recording device 23 of the device mounted on the mobile body 2 (S100). Then, the obtained photographed image information and its relative time or time information are associated with each other. Further, the image information processing unit 10 connects the captured image information captured by the imaging device 20 in chronological order. As a result, captured image information obtained by continuously capturing the runway can be generated.

位置情報処理部11は,移動体搭載装置2の記録装置23から位置情報および時刻情報を取得し(S110),位置情報処理部11が,位置情報計測装置21で計測した位置情報を,可視光画像情報に用いた撮影装置20の位置情報に補正をする。以後の処理で用いる位置情報は,補正後の位置情報(撮影装置20の位置情報)となる。 The position information processing unit 11 acquires the position information and the time information from the recording device 23 of the mobile object-mounted device 2 (S110). Correction is made to the position information of the imaging device 20 used for the image information. The position information used in subsequent processing is the position information after correction (position information of the photographing device 20).

そして画像情報処理部10は,時系列的に並べた撮影画像情報に,位置情報処理部11で補正した位置情報と時刻情報とを対応づけて,画像情報処理部10による撮影画像情報の伸縮処理,剪断変形処理を行う各補正処理を実行する。なお,補正処理はその一部または全部を行わなくてもよい。 Then, the image information processing unit 10 associates the position information and the time information corrected by the position information processing unit 11 with the photographed image information arranged in time series, and expands and contracts the photographed image information by the image information processing unit 10. , performs shear deformation processing. Note that part or all of the correction processing may not be performed.

まず,位置情報計測装置21で取得した時刻情報と,撮影画像情報ごとの相対時間に基づいて時刻情報を算出する。そして,各撮影画像情報の終端位置を,位置情報計測装置21で取得した時刻情報と位置情報とを用いて比例配分することで算出する。なお,撮影画像情報の終端位置は,隣接する撮影画像情報の始端位置として用いることができる。このように算出した撮影画像情報の始端位置と終端位置との進行方向の位置情報の差に基づく距離と,所定単位の枚数分と撮影幅とに基づく撮影画像情報の距離とを比較することで,撮影画像情報の伸縮比率を算出し,伸縮を行う。 First, the time information is calculated based on the time information acquired by the position information measuring device 21 and the relative time for each captured image information. Then, the terminal position of each captured image information is calculated by proportional distribution using the time information and the position information acquired by the position information measuring device 21 . Note that the end position of the captured image information can be used as the start position of the adjacent captured image information. By comparing the distance based on the difference in positional information in the traveling direction between the start position and the end position of the captured image information calculated in this way, and the distance based on the number of predetermined units and the captured image information based on the shooting width, , the expansion/contraction ratio of the photographed image information is calculated, and expansion/contraction is performed.

また,撮影画像情報の始端位置と終端位置との進行方向に対する横方向の位置情報の差に基づく距離に基づいて撮影画像情報の剪断変形処理を実行する。 Further, shear deformation processing of the photographed image information is executed based on the distance based on the difference in positional information in the lateral direction with respect to the advancing direction between the start position and the end position of the photographed image information.

以上の処理を実行することで,滑走路の路面を撮影した撮影画像情報と位置情報とを対応づけることができる。 By executing the above processing, it is possible to associate the photographed image information obtained by photographing the road surface of the runway with the position information.

このように補正処理を実行すると,画像情報処理部10は,撮影画像情報において,レーン領域を示すレーン線Lと,マージン領域を示すマージン線Mとを設定する(S120)。そして,詳細画像情報と広域画像情報とを生成する(S130)。 When the correction process is executed in this way, the image information processing unit 10 sets the lane line L indicating the lane area and the margin line M indicating the margin area in the captured image information (S120). Then, detailed image information and wide area image information are generated (S130).

まず画像処理部は,マージン線Mよりも外側の画像情報の領域はトリミングをし(S200),マージン線Mよりも内側であって,撮影ができていない領域に対しては,黒塗りするなどの所定の画像処理を加えて(S210),詳細画像情報として画像情報記憶部12に記憶させる(S220)。また画像処理部は,レーン線Lよりも外側の領域をトリミングをして(S300),広域画像情報として画像情報記憶部12に記憶させる(S310)。なお,レーン領域はマージン領域よりも内側であるので,撮影ができていない領域がないことがほとんどとなるが,何らかの障害により撮影ができていない領域があった場合には,マージン領域と同様に,黒塗りをするなどの所定の画像処理を加えてもよい。 First, the image processing unit trims the area of the image information outside the margin line M (S200), and blackens the area inside the margin line M that cannot be photographed. (S210), and stored in the image information storage unit 12 as detailed image information (S220). Also, the image processing section trims the area outside the lane line L (S300) and stores it in the image information storage section 12 as wide area image information (S310). In addition, since the lane area is inside the margin area, there is almost no area where shooting cannot be performed, but if there is an area where shooting cannot be performed due to some obstacle, , and a predetermined image processing such as blackening may be added.

このように広域画像情報,詳細画像情報を画像情報記憶部12に記憶させたあと,撮影した滑走路の路面の画像情報を確認したい場合には,所定の操作が行われることで,表示処理部13が,図20に示すような表示画面を表示させる(S140)。 After the wide-area image information and the detailed image information are stored in the image information storage unit 12 in this way, when it is desired to check the image information of the captured runway road surface, a predetermined operation is performed, and the display processing unit 13 displays a display screen as shown in FIG. 20 (S140).

そして表示画面の表示領域Aにおいて,表示させる位置の選択を受け付けると,表示処理部13は,その位置情報に対応する広域画像情報を画像情報記憶部12から抽出して表示領域Bに表示する。また,広域画像情報から詳細な画像情報の領域B1の選択を受け付けると,その位置情報に対応する詳細画像情報を画像情報記憶部12から抽出して表示領域Cに表示する。 When the selection of the position to be displayed is received in the display area A of the display screen, the display processing unit 13 extracts the wide area image information corresponding to the position information from the image information storage unit 12 and displays it in the display area B. Further, when the selection of the detailed image information area B1 from the wide area image information is accepted, the detailed image information corresponding to the position information is extracted from the image information storage unit 12 and displayed in the display area C. FIG.

具体的には表示処理部13は,位置情報に対応する広域画像情報を画像情報記憶部12から抽出し,レーン線Lがコースの区切りを示す線となるように,隣り合うコースごとに,各コースに対応するレーンの広域画像情報を表示領域Bに表示させる。また表示処理部13は,位置情報に対応する詳細画像情報を画像情報記憶部12から抽出し,マージン線Mがコースの区切りを示す線となるように,隣り合うコースごとに各コースに対応するレーンの詳細画像情報を表示領域Cに表示させる。表示領域Cに詳細画像情報を表示する際には,マージン線Mとレーン線Lとが区別可能なように,異なる色,線種別(直線,破線,一点鎖線,二点鎖線など),異なる太さなどで表示をすることが好ましい。またマージン線Mとレーン線Lとを区別するほか,マージン領域とレーン領域とが区別可能になっているとよい。たとえばマージン領域とレーン領域を異なる色で表示する,マージン領域とレーン領域であることを表示させる,マークを付するなどがある。 Specifically, the display processing unit 13 extracts the wide-area image information corresponding to the position information from the image information storage unit 12, and displays each of the adjacent courses so that the lane line L becomes a line indicating the division of the course. The wide-area image information of the lane corresponding to the course is displayed in the display area B. Further, the display processing unit 13 extracts the detailed image information corresponding to the position information from the image information storage unit 12, and arranges each adjoining course corresponding to each course so that the margin line M becomes a line indicating the division of the course. The detailed image information of the lane is displayed in the display area C. When displaying detailed image information in the display area C, different colors, different line types (straight lines, broken lines, dashed-dotted lines, dashed-two-dotted lines, etc.), and different thicknesses are used so that the margin lines M and the lane lines L can be distinguished. It is preferable to display by . In addition to distinguishing the margin lines M and the lane lines L, it is preferable that the margin area and the lane area can be distinguished. For example, the margin area and the lane area are displayed in different colors, the margin area and the lane area are displayed, and a mark is added.

これによって,広い範囲を確認したい場合には広域画像情報を,詳細に確認をしたい場合には詳細画像情報を確認することができる。とくに詳細画像情報においてはマージン線Mがコースの区切りとなっているので,マージン領域が重畳して表示される。そのためコースの区切りにある凹凸などの異常を見落とすことがない。また隣り合うコースの画像情報同士の合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。 As a result, wide area image information can be confirmed when a wide range is desired to be confirmed, and detailed image information can be confirmed when detailed confirmation is desired. Especially in the detailed image information, since the margin line M serves as a course delimiter, the margin areas are superimposed and displayed. As a result, irregularities such as irregularities at the boundaries of the course are not overlooked. In addition, since there is no need to synthesize the image information of adjacent courses, it is possible to display the image information with a simple process without requiring a long processing time.

路面には直線箇所のみならず,湾曲箇所もある。たとえば空港の場合,飛行機は駐機場から滑走路まで移動する際に,誘導路を移動する。そこで本実施例においては,湾曲箇所がある路面の場合における画面表示を行う場合を説明する。湾曲箇所がある場合のコースの一例を図23に示す。 The road surface has not only straight parts but also curved parts. At an airport, for example, planes travel down a taxiway as they move from the parking lot to the runway. Therefore, in the present embodiment, a case of performing screen display in the case of a road surface with a curved portion will be described. FIG. 23 shows an example of a course with curved portions.

誘導路などの路面にはセンターライン(中央線など,路面を一定の幅で区切る線)およびキロポスト(距離を示す標識)が設定されている。そこで,移動体が走行するコースを,センターラインに対して直角方向に一定距離だけ離れた曲線を描くように設定する。なお曲線は折れ線であってもよい。 Taxiways and other road surfaces are marked with center lines (lines that divide the road surface at a certain width, such as the center line) and kiloposts (distance markers). Therefore, the course along which the moving object travels is set so as to draw a curved line separated by a certain distance in the direction perpendicular to the center line. Note that the curved line may be a polygonal line.

このように設定されたコースに沿って,実施例1と同様に移動体が移動し,移動体搭載装置2によって路面を撮影をする。この場合,移動体搭載装置2は移動体の横断方向に知って路面を撮影するので,各コースに対応するレーンの撮影画像情報は,長い長方形となる。なお,厳密には湾曲部を走行すると移動体の左右の間で距離の歪みが発生するが,誘導路や道路の回転半径は十分に大きいことが一般的であるので,撮影画像情報の局所的な歪みは問題とはならない。 Along the course set in this manner, the moving body moves in the same manner as in the first embodiment, and the moving body mounting device 2 photographs the road surface. In this case, since the moving object mounting device 2 photographs the road surface in the transverse direction of the moving object, the photographed image information of the lane corresponding to each course becomes a long rectangle. Strictly speaking, there is a distortion in the distance between the left and right sides of the moving object when traveling on a curved section, but since the turning radius of taxiways and roads is generally sufficiently large, localization of captured image information distortion is not a problem.

しかし,湾曲部分の内側のコースと,外側のコースを走行した場合では,撮影距離の差が生じるので,コースに対応するレーンの撮影画像情報の長さが変わる。そこで本実施例においては,表示処理部13が実距離表示モードとキロポスト表示モードの2つの表示方法を切り替え可能として表示することで,対応する。 However, when traveling on the inner course of the curved portion and the outer course, there is a difference in the photographing distance, so the length of the photographed image information of the lane corresponding to the course changes. Therefore, in the present embodiment, the display processing unit 13 can switch between two display methods, ie, the actual distance display mode and the kilometer post display mode.

実距離表示モードは,画像情報記憶部12に記憶した画像情報を,キロポスト(単位距離)間の撮影画像情報の長さが一定となるような伸縮処理を行わずに,そのまま実施例1と同様に並べる方式である。実距離表示モードを模式的に示すのが図24である。図24では右側が始点,左側が終点となっているが,左右逆,あるいは上下方向の表示をしても良い。実距離表示モードは,実際の走行距離で表示されているので,撮影画像情報を表示画面で表示する場合,凹凸などの異常を実際のサイズと同様の大きさで確認することができる。 In the actual distance display mode, the image information stored in the image information storage unit 12 is processed in the same manner as in the first embodiment without performing expansion/contraction processing so that the length of the photographed image information between kilometer posts (unit distance) becomes constant. It is a method of arranging in FIG. 24 schematically shows the actual distance display mode. In FIG. 24, the right side is the start point and the left side is the end point, but the display may be reversed horizontally or vertically. In the actual distance display mode, the actual distance traveled is displayed, so when displaying the captured image information on the display screen, it is possible to check irregularities such as unevenness in the same size as the actual size.

実距離表示モードでは,画像情報のサイズが伸縮されていないので,湾曲部分の内側のコース,外側のコースのいずれの画像情報であっても,実際のサイズに近い。そのため,凹凸などの異常があったとしても画像情報から計測して誤差が少ない利点がある。 In the actual distance display mode, since the size of the image information is not expanded or contracted, the image information of either the inner course or the outer course of the curved portion is close to the actual size. Therefore, even if there are irregularities such as unevenness, there is an advantage that there is little error in measuring from the image information.

表示処理部13は,実距離表示モードにおいて,対応する位置関係を明らかにするため,各撮影画像情報に対応づけられた位置情報を用いて,同一キロポスト(単位距離)の位置に線を重畳表示するなどするとよい。これによって,同一キロポストの位置関係を,容易に認識することができる。 In the actual distance display mode, the display processing unit 13 superimposes a line at the position of the same kilometer post (unit distance) using the position information associated with each captured image information in order to clarify the corresponding positional relationship. and so on. This makes it possible to easily recognize the positional relationship of the same kilometer posts.

キロポスト表示モードは,キロポスト(単位距離)間の撮影画像情報の長さが一定となるように,進行方向に伸縮しておき,その画像情報を表示する。この場合,各キロポスト間の拡縮率(たとえばコース1の20~40mキロポスト間は0.87倍など)をあらかじめ設定しておき,画像処理部においてあらかじめその伸縮率に応じた撮影画像情報を生成しておき,それを画像情報記憶部12に記憶させておく。そして表示処理部13における表示処理の際に,伸縮した撮影画像情報を表示させる。なお,画像処理部において表示させるほか,表示処理部13における表示の際に,撮影画像情報を伸縮してもよい。キロポスト表示モードを模式的に示すのが図25である。 In the kilometer post display mode, the length of the captured image information between kilometer posts (unit distance) is fixed, and the image information is displayed after being stretched in the traveling direction. In this case, the expansion/contraction ratio between each kilometer post (for example, 0.87 times for the distance between 20m and 40m kilometer posts on course 1) is set in advance, and the image processing unit generates photographic image information in advance according to the expansion/contraction ratio. and store it in the image information storage unit 12 . Then, during display processing in the display processing unit 13, the stretched photographed image information is displayed. In addition to being displayed by the image processing unit, the captured image information may be expanded or contracted when displayed by the display processing unit 13 . FIG. 25 schematically shows the kilometer post display mode.

キロポスト表示モードでは,コース間の横断方向のずれが少なくなるので,コースを横断して存在する凹凸等の異常の全体像を画像情報から確認する場合には有益である。 In the kilometer post display mode, the deviation in the transverse direction between courses is reduced, so it is useful for confirming the overall image of irregularities such as irregularities that exist across the course from the image information.

このように,表示処理部13は,実距離表示モードとキロポスト表示モードとをアイコンやボタン,プルダウンメニューなどによって,切り替え可能とすることが好ましい。 In this manner, the display processing unit 13 is preferably capable of switching between the actual distance display mode and the kilometer post display mode using icons, buttons, pull-down menus, or the like.

実施例2の場合においても,それぞれの表示モード(実距離表示モード,キロポスト表示モード)で,実施例1と同様に詳細画像情報,広域画像情報を生成し,詳細表示処理,広域表示処理を表示処理部13が実行してもよい。 In the second embodiment, detailed image information and wide-area image information are generated in each display mode (actual distance display mode, kilometer post display mode) in the same manner as in the first embodiment, and detailed display processing and wide-area display processing are displayed. The processing unit 13 may execute this.

本発明は,本発明の趣旨を逸脱しない範囲において,適宜,設計変更が可能である。また処理は一例であり,その処理を異なる順番で実行することも可能である。さらに,画面の表示についても適宜,変更可能である。また,すべての機能を備えずとも,一部の機能のみを備えるのであってもよい。 The present invention can be appropriately modified in design without departing from the gist of the present invention. Also, the processing is an example, and it is also possible to execute the processing in a different order. Furthermore, the display on the screen can also be changed as appropriate. Further, it may be possible to provide only a part of the functions without providing all the functions.

一つの撮影対象を複数の画像情報に分割して撮影して表示する場合における画像情報同士の合成処理の課題は路面の撮影の場合に限られるものではない。そのため,本発明の画像処理システム1における画像情報処理,表示処理は,路面を撮影した画像情報のみに適用できるのではなく,一つの撮影対象を複数の画像情報に分割して撮影し,表示する場合にも適用することができる。たとえば建築物やトンネル,橋脚などさまざまな撮影対象物の場合に適用可能である。 The problem of synthesizing the pieces of image information in the case of dividing one photographing object into a plurality of pieces of image information and photographing and displaying the pieces of image information is not limited to the case of photographing a road surface. Therefore, the image information processing and display processing in the image processing system 1 of the present invention can be applied not only to the image information obtained by photographing the road surface, but also to divide one photographing object into a plurality of pieces of image information, photograph and display them. It can also be applied when For example, it can be applied to various shooting objects such as buildings, tunnels, and bridge piers.

本発明の画像処理システム1を用いることで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,撮影した結果をすぐに目視したい場合には,すぐに確認することができる。 By using the image processing system 1 of the present invention, image information is not lost even if fluctuation occurs in the transverse direction during photographing. Also, if you want to see the photographed result immediately, you can check it immediately.

1:画像処理システム
2:移動体搭載装置
C:車両
10:画像情報処理部
11:位置情報処理部
12:画像情報記憶部
13:表示処理部
20:撮影装置
21:位置情報計測装置
22:同期装置
23:記録装置
24:照明装置
25:支柱
26:取付ビーム
27:照明支持台
30:投影装置
40:ルーフキャリア
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Image processing system 2: Device mounted on mobile object C: Vehicle 10: Image information processing unit 11: Position information processing unit 12: Image information storage unit 13: Display processing unit 20: Photographing device 21: Position information measuring device 22: Synchronization Device 23: Recording device 24: Lighting device 25: Support 26: Mounting beam 27: Lighting support base 30: Projecting device 40: Roof carrier 70: Computing device 71: Storage device 72: Display device 73: Input device 74: Communication device

Claims (15)

湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示処理部,を有しており,
前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれており,
前記表示処理部は,
前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う,
ことを特徴とする画像処理システム。
An image processing system for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion,
The image processing system is
A lane area that is an area of the road surface that must be photographed, specified in the first detailed image information and the second detailed image information , and a lane area that is provided outside of either one of the left and right sides of the lane area The first detailed image information and the second detailed image information are arranged so that the margin area in the first detailed image information is positioned next to the second detailed image information based on the margin area, which is an area having a constant width. 2, a display processing unit for displaying detailed image information,
Part or all of the shooting range of the margin area in the first detailed image information is included in part or all of the shooting range of the lane area in the second detailed image information,
The display processing unit
A first display format in which the first detailed image information and the second detailed image information are displayed side by side without performing expansion/contraction processing , and a first display format in which the length of the image information is expanded/contracted so that the length of the image information between unit distances is constant. perform display processing in a second display format that displays the detailed image information and the second detailed image information side by side ,
An image processing system characterized by:
撮影対象物の隣り合う範囲を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを,位置情報を対応させて表示する表示処理部,を有しており,
前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれる,
ことを特徴とする画像処理システム。
An image processing system for first detailed image information and second detailed image information obtained by photographing adjacent ranges of an object to be photographed,
The image processing system is
A lane area that is an area of the road surface that must be photographed, specified in the first detailed image information and the second detailed image information , and a lane area that is provided outside of either one of the left and right sides of the lane area The first detailed image information and the second detailed image information are arranged so that the margin area in the first detailed image information is positioned next to the second detailed image information based on the margin area, which is an area having a constant width. a display processing unit that displays the detailed image information of 2 in correspondence with the position information ,
Part or all of the shooting range of the margin area in the first detailed image information is included in part or all of the shooting range of the lane area in the second detailed image information,
An image processing system characterized by:
前記表示処理部は,
前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の前記マージン領域の隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する,
ことを特徴とする請求項1または請求項2に記載の画像処理システム。
The display processing unit
displaying the first detailed image information and the second detailed image information such that the margin area in the first detailed image information is positioned next to the margin area in the second detailed image information; do,
3. The image processing system according to claim 1, wherein:
前記表示処理部は,さらに,
前記第1の詳細画像情報における前記レーン領域が,前記第2の詳細画像情報の前記レーン領域の隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する,
ことを特徴とする請求項1から請求項3のいずれかに記載の画像処理システム。
The display processing unit further
displaying the first detailed image information and the second detailed image information such that the lane area in the first detailed image information is positioned next to the lane area in the second detailed image information; do,
4. The image processing system according to claim 1, wherein:
前記表示処理部は,さらに,
前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の前記マージン領域の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示形式と,
前記第1の詳細画像情報における前記レーン領域が,前記第2の詳細画像情報の前記レーン領域に隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示形式とが,切り替え可能である,
ことを特徴とする請求項4に記載の画像処理システム。
The display processing unit further
displaying the first detailed image information and the second detailed image information such that the margin area in the first detailed image information is positioned next to the margin area in the second detailed image information; display format and
The first detailed image information and the second detailed image information are displayed such that the lane area in the first detailed image information is positioned adjacent to the lane area in the second detailed image information. The display format can be switched between
5. The image processing system according to claim 4, wherein:
前記表示処理部は,
前記レーン領域と前記マージン領域とを区別可能に表示をする,
ことを特徴とする請求項1から請求項5のいずれかに記載の画像処理システム。
The display processing unit
displaying the lane area and the margin area in a distinguishable manner;
6. The image processing system according to any one of claims 1 to 5, characterized by:
前記表示処理部は,
前記第1の詳細画像情報と前記第2の詳細画像情報とを区別可能に表示をする,
ことを特徴とする請求項1から請求項6のいずれかに記載の画像処理システム。
The display processing unit
displaying the first detailed image information and the second detailed image information in a distinguishable manner;
7. The image processing system according to any one of claims 1 to 6, characterized by:
撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の画像情報と前記第2の画像情報について,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域とを特定し,前記マージン領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記レーン領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部と,
前記第1の画像情報と前記第2の画像情報とを位置情報を用いて対応づけて表示処理を行う表示処理部と,を有しており,
前記表示処理部は,
前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,
前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,
ことを特徴とする画像処理システム。
An image processing system for first image information and second image information obtained by photographing adjacent ranges of an object to be photographed,
The image processing system is
Regarding the first image information and the second image information , the lane area, which is the area of the road surface that must be photographed, and the constant width area provided on the left and right or either one of the lane area an image information processing unit that identifies a certain margin area, trims an area outside the margin area to generate detailed image information, and trims an area outside the lane area to generate wide-area image information; ,
a display processing unit that performs display processing by associating the first image information and the second image information using position information;
The display processing unit
displaying the detailed image information based on the first image information and the detailed image information based on the second image information so as to be adjacent to each other;
displaying the wide-area image information based on the first image information and the wide-area image information based on the second image information so as to be adjacent to each other;
An image processing system characterized by:
湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う表示処理部,
を有することを特徴とする画像処理システム。
An image processing system for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion,
The image processing system is
A first display format in which the first detailed image information and the second detailed image information are displayed side by side without performing expansion and contraction processing , and a first display format in which the length of the image information between unit distances is expanded and contracted so that the length is constant. A display processing unit that performs display processing in a second display format that displays the detailed image information and the second detailed image information side by side,
An image processing system comprising:
前記表示処理部は,
前記第1の表示形式において,対応する単位距離の位置関係が特定可能に表示する,
ことを特徴とする請求項1または請求項9に記載の画像処理システム。
The display processing unit
In the first display format, the positional relationship of the corresponding unit distance is displayed so as to be identifiable,
10. The image processing system according to claim 1, wherein:
前記表示処理部は,
前記第1の表示形式と,前記第2の表示形式とが切り替え可能である,
ことを特徴とする請求項1,請求項9または請求項10に記載の画像処理システム。
The display processing unit
the first display format and the second display format are switchable;
11. The image processing system according to claim 1, 9 or 10, characterized in that:
湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように前記第1の詳細画像情報と前記第2の詳細画像情報とを表示する表示処理部,として機能させ,
前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれており,
前記表示処理部は,
前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う,
ことを特徴とする画像処理プログラム。
An image processing program for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion,
The image processing program causes a computer to:
A lane area that is an area of the road surface that must be photographed, specified in the first detailed image information and the second detailed image information , and a lane area that is provided outside of either one of the left and right sides of the lane area The first detailed image information and the second detailed image information are arranged so that the margin area in the first detailed image information is positioned next to the second detailed image information based on the margin area, which is an area having a constant width. function as a display processing unit that displays the detailed image information of 2,
Part or all of the shooting range of the margin area in the first detailed image information is included in part or all of the shooting range of the lane area in the second detailed image information,
The display processing unit
A first display format in which the first detailed image information and the second detailed image information are displayed side by side without performing expansion and contraction processing , and a first display format in which the length of the image information between unit distances is expanded and contracted so that the length is constant. perform display processing in a second display format that displays the detailed image information and the second detailed image information side by side ,
An image processing program characterized by:
撮影対象物の隣り合う範囲を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の詳細画像情報と前記第2の詳細画像情報とにおいて特定された,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域に基づいて,前記第1の詳細画像情報における前記マージン領域が,前記第2の詳細画像情報の隣に位置するように,前記第1の詳細画像情報と前記第2の詳細画像情報とを,位置情報を対応させて表示する表示処理部,として機能させ,
前記第1の詳細画像情報における前記マージン領域の撮影範囲の一部または全部は,前記第2の詳細画像情報における前記レーン領域の撮影範囲の一部または全部に含まれる,
ことを特徴とする画像処理プログラム。
An image processing program for first detailed image information and second detailed image information obtained by photographing adjacent ranges of an object to be photographed,
The image processing program causes a computer to:
A lane area that is an area of the road surface that must be photographed, specified in the first detailed image information and the second detailed image information , and a lane area that is provided outside of either one of the left and right sides of the lane area The first detailed image information and the second detailed image information are arranged so that the margin area in the first detailed image information is positioned next to the second detailed image information based on the margin area, which is an area having a constant width. functioning as a display processing unit that displays the second detailed image information in correspondence with the position information ;
Part or all of the shooting range of the margin area in the first detailed image information is included in part or all of the shooting range of the lane area in the second detailed image information,
An image processing program characterized by:
撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の画像情報と前記第2の画像情報について,撮影しなければならない路面の領域であるレーン領域と,前記レーン領域の左右両方若しくはいずれか一方の外側に設けた一定の幅の領域であるマージン領域とを特定し,前記マージン領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記レーン領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部,
前記第1の画像情報と前記第2の画像情報とを位置情報を用いて対応づけて表示処理を行う表示処理部,として機能させ,
前記表示処理部は,
前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,
前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,
ことを特徴とする画像処理プログラム。
An image processing program for first image information and second image information obtained by photographing adjacent ranges of an object to be photographed,
The image processing program causes a computer to:
Regarding the first image information and the second image information , the lane area, which is the area of the road surface that must be photographed, and the constant width area provided on the left and right or either one of the lane area an image information processing unit that identifies a certain margin area, trims an area outside the margin area to generate detailed image information, and trims an area outside the lane area to generate wide-area image information;
functioning as a display processing unit that performs display processing by associating the first image information and the second image information using position information ;
The display processing unit
displaying the detailed image information based on the first image information and the detailed image information based on the second image information so as to be adjacent to each other;
displaying the wide-area image information based on the first image information and the wide-area image information based on the second image information so as to be adjacent to each other;
An image processing program characterized by:
湾曲箇所を含む隣り合う範囲の路面を撮影した第1の詳細画像情報と第2の詳細画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の詳細画像情報と第2の詳細画像情報を伸縮処理を行わずに並べて表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の詳細画像情報と第2の詳細画像情報とを並べて表示する第2の表示形式表示処理を行う表示処理部,
として機能させることを特徴とする画像処理プログラム。
An image processing program for first detailed image information and second detailed image information obtained by photographing a road surface in an adjacent range including a curved portion,
The image processing program causes a computer to:
A first display format in which the first detailed image information and the second detailed image information are displayed side by side without performing expansion/contraction processing , and a first display format in which the length of the image information is expanded/contracted so that the length of the image information between unit distances is constant. A display processing unit that performs display processing in a second display format that displays the detailed image information and the second detailed image information side by side,
An image processing program characterized by functioning as
JP2019138832A 2019-07-29 2019-07-29 Image processing system Active JP7317299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019138832A JP7317299B2 (en) 2019-07-29 2019-07-29 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138832A JP7317299B2 (en) 2019-07-29 2019-07-29 Image processing system

Publications (2)

Publication Number Publication Date
JP2021022210A JP2021022210A (en) 2021-02-18
JP7317299B2 true JP7317299B2 (en) 2023-07-31

Family

ID=74574278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138832A Active JP7317299B2 (en) 2019-07-29 2019-07-29 Image processing system

Country Status (1)

Country Link
JP (1) JP7317299B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043466A (en) 2005-08-03 2007-02-15 Mitsubishi Electric Corp Image synthesizing apparatus and multi-camera monitoring system
JP2012105145A (en) 2010-11-11 2012-05-31 Canon Inc Image processing apparatus, image processing method, and program
JP2017090189A (en) 2015-11-09 2017-05-25 株式会社ソーシャル・キャピタル・デザイン Travelling guide system
JP2017181393A (en) 2016-03-31 2017-10-05 倉敷紡績株式会社 Navigation device and navigation method
JP2019106075A (en) 2017-12-13 2019-06-27 三菱重工業株式会社 Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043466A (en) 2005-08-03 2007-02-15 Mitsubishi Electric Corp Image synthesizing apparatus and multi-camera monitoring system
JP2012105145A (en) 2010-11-11 2012-05-31 Canon Inc Image processing apparatus, image processing method, and program
JP2017090189A (en) 2015-11-09 2017-05-25 株式会社ソーシャル・キャピタル・デザイン Travelling guide system
JP2017181393A (en) 2016-03-31 2017-10-05 倉敷紡績株式会社 Navigation device and navigation method
JP2019106075A (en) 2017-12-13 2019-06-27 三菱重工業株式会社 Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program

Also Published As

Publication number Publication date
JP2021022210A (en) 2021-02-18

Similar Documents

Publication Publication Date Title
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
JP5714940B2 (en) Moving body position measuring device
JP6381981B2 (en) Track space obstacle detection system
JP2007265277A (en) Visibility range measurement device for vehicle, and driving support device
JP4677981B2 (en) Own vehicle position identification method and own vehicle position identification device
JP2012127896A (en) Mobile object position measurement device
US20190163992A1 (en) Retroreflectivity measurement system
US20200364470A1 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP6557532B2 (en) Lighting equipment management system
JP6640146B2 (en) Road marking method
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
KR101079894B1 (en) Development of tunnel wall image acquiring system
JP7317299B2 (en) Image processing system
JP7115228B2 (en) Facility management device, facility management method, and facility management program
US10859377B2 (en) Method for improving position information associated with a collection of images
JP7304016B2 (en) Image processing system
JP2007263849A (en) Navigation device
JP2005178623A (en) Display device for vehicle
JP5911623B1 (en) Detection device and detection method for road joints
WO2023145402A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145403A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145400A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145399A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145401A1 (en) Traffic flow measurement system and traffic flow measurement method
JP6727584B2 (en) Position information specifying method, position information specifying device, and position information specifying program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230707

R150 Certificate of patent or registration of utility model

Ref document number: 7317299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150