JP2021022210A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2021022210A
JP2021022210A JP2019138832A JP2019138832A JP2021022210A JP 2021022210 A JP2021022210 A JP 2021022210A JP 2019138832 A JP2019138832 A JP 2019138832A JP 2019138832 A JP2019138832 A JP 2019138832A JP 2021022210 A JP2021022210 A JP 2021022210A
Authority
JP
Japan
Prior art keywords
image information
image
region
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019138832A
Other languages
Japanese (ja)
Other versions
JP7317299B2 (en
Inventor
信義 武藤
Nobuyoshi Muto
信義 武藤
利文 村田
Toshifumi Murata
利文 村田
功 上野
Isao Ueno
功 上野
恵太郎 小沼
Keitaro Konuma
恵太郎 小沼
尚人 二又
Naohito Futamata
尚人 二又
敬介 水上
Keisuke Mizukami
敬介 水上
晴季 松澤
Haruki Matsuzawa
晴季 松澤
茜 澤田
Akane Sawada
茜 澤田
安達 慎一
Shinichi Adachi
慎一 安達
雄章 石川
Takeaki Ishikawa
雄章 石川
和人 熊田
Kazuto Kumada
和人 熊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Pacific Consultants Co Ltd
Social Capital Design Co Ltd
Original Assignee
University of Tokyo NUC
Pacific Consultants Co Ltd
Social Capital Design Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Pacific Consultants Co Ltd, Social Capital Design Co Ltd filed Critical University of Tokyo NUC
Priority to JP2019138832A priority Critical patent/JP7317299B2/en
Publication of JP2021022210A publication Critical patent/JP2021022210A/en
Application granted granted Critical
Publication of JP7317299B2 publication Critical patent/JP7317299B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an image processing system for image information.SOLUTION: An image processing system 1 includes a display processing unit 13 which images a road surface in adjacent ranges including a curved section, and displays first image information and second image information so that a second area in the first image information may be located next to the second image information, on the basis of a first area and the second area specified in the first image information and the second image information. A part or all of an imaging range of the second area in the first image information is included in a part or all of an imaging range of the first area in the second image information. The display processing unit 13 executes display processing in a first display mode of displaying the first image information and the second image information, and a second display mode of displaying the first image information and second image information which are expanded or contracted so that the length of image information in a unit distance may be uniform.SELECTED DRAWING: Figure 1

Description

路面を撮影した画像情報に対する画像処理システムに関する。 The present invention relates to an image processing system for image information obtained by photographing a road surface.

空港の滑走路や道路などの路面に凹凸があると事故につながることがあるため,路面の異常,特に凹凸の異常の有無を検出することが路面の管理からは重要である。そこで,道路などを走行する車両に所定の装置を搭載し,路面を撮影することで,路面の凹凸の検出を行うことが従来より行われている。 Since unevenness on the runway or road surface of an airport may lead to an accident, it is important from the viewpoint of road surface management to detect the presence or absence of abnormalities on the road surface, especially on unevenness. Therefore, it has been conventionally practiced to detect the unevenness of the road surface by mounting a predetermined device on a vehicle traveling on a road or the like and photographing the road surface.

たとえば下記特許文献1,特許文献2に記載のようにスリット光を路面に照射し,それを撮影することで路面の凹凸を検出することが行われている。これらを用いることで,路面の凹凸を一定程度,検出することはできる。 For example, as described in Patent Documents 1 and 2 below, the road surface is irradiated with slit light, and the unevenness of the road surface is detected by photographing the road surface. By using these, it is possible to detect the unevenness of the road surface to a certain extent.

特開平4−291195号公報Japanese Unexamined Patent Publication No. 4-291195 特開昭59−80501号公報JP-A-59-80501

これらの発明のように,路面を撮影することで画像情報を得る方式の場合,対象とする路面の全範囲に亘って漏れなく撮影をすることが求められる。そこで,車両が走行する経路(コース)の両脇にガイドとなるLEDを搭載したコーン(パイロン)を置き,それに沿って車両が走行することが考えられる。また,走行すべき経路をガイドするシステムとしてカーナビゲーションシステムがあり,カーナビゲーションシステムのガイドに沿って走行することも考えられる。 In the case of the method of obtaining image information by photographing the road surface as in these inventions, it is required to photograph the entire range of the target road surface without omission. Therefore, it is conceivable that cones (pylons) equipped with LEDs as guides are placed on both sides of the route (course) on which the vehicle travels, and the vehicle travels along the cones (pylons). In addition, there is a car navigation system as a system that guides the route to be traveled, and it is conceivable to travel along the guide of the car navigation system.

しかし,コーンを置いた場合には,コーンの延長線上にある路面を撮影することはできないので,その延長線上の路面に凹凸の異常があった場合には検出することができない。そして,コーンの延長線上にある路面を撮影する場合には,コーンをずらした上で,撮影をしなければならないが,コーンの再設置,再撮影,撮影した画像情報の位置合わせなど著しい作業負担が発生する。 However, when the cone is placed, it is not possible to photograph the road surface on the extension line of the cone, so if there is an abnormality in the road surface on the extension line, it cannot be detected. When shooting a road surface that is an extension of the cone, it is necessary to shift the cone before shooting, but it is a significant workload such as re-installing the cone, reshooting, and aligning the captured image information. Occurs.

カーナビゲーションシステムを用いた場合であっても,人が車両を運転した場合,自動運転のいずれの場合であっても,左右方向(横断方向)への多少の揺らぎが発生する。 Even when a car navigation system is used, when a person drives a vehicle, or when the vehicle is automatically driven, some fluctuations occur in the left-right direction (crossing direction).

撮影対象となる路面が滑走路の場合,横断方向の幅が長いため,一度の走行では滑走路の左右全体に亘って撮影することができないことから,少しずつ左右に走行経路をずらしながら撮影を行うこととなる。これを模式的に示すのが図26である。図26では簡略化のため,滑走路を2つのコースに分割し,コース1とコース2とを一回ずつ走行する状態を模式的に示したものであるが,実際の滑走路の横断方向の幅はこれよりも広く,3以上のコースに分割されることが一般的である。また,図26における斜線部分は,レーン間の関係をわかりやすくするために付しているものである。 When the road surface to be photographed is a runway, the width in the crossing direction is long, so it is not possible to photograph the entire left and right sides of the runway in one run. Will be done. This is schematically shown in FIG. In FIG. 26, for simplification, the runway is divided into two courses, and the state in which the runway 1 and the course 2 are run once is schematically shown, but the actual crossing direction of the runway is shown. The width is wider than this and is generally divided into 3 or more courses. The shaded areas in FIG. 26 are added to make it easier to understand the relationship between the lanes.

図26のように車両がコースを走行してその滑走路の路面の撮影をした場合,滑走路全体を画像情報として表示する場合には,図26で示すように,コース1を走行することで撮影しなければならない領域であるレーン1の画像情報と,コース2を走行することで撮影しなければならない領域であるレーン2の画像情報とを,横断方向で位置を合わせる必要がある。なお,コースとは車両が走行する予定の領域(または車両の中心が通過する予定の軌跡)であり,レーンとは,車両がコースを走行することで撮影しなければならない路面の領域である。車両が理想的にコースを走行した場合,コースの横断方向の中心位置とレーンの横断方向の中心位置は一致する。またコースの境界はレーンの境界となる。 When the vehicle travels on the course and photographs the road surface of the runway as shown in FIG. 26, and when the entire runway is displayed as image information, the vehicle travels on the course 1 as shown in FIG. It is necessary to align the image information of lane 1, which is an area to be photographed, with the image information of lane 2, which is an area to be photographed by traveling on the course 2, in the transverse direction. The course is the area where the vehicle is scheduled to travel (or the trajectory where the center of the vehicle is scheduled to pass), and the lane is the area of the road surface where the vehicle must travel on the course. When the vehicle ideally travels on the course, the center position in the crossing direction of the course and the center position in the crossing direction of the lane match. The boundary of the course is the boundary of the lane.

すなわちレーン1の画像情報における点A,B,Cに対応するレーン2の画像情報における対応点A’,B’,C’を特定し,特定した対応点に基づいて,画像情報の合成処理を行う。そしてこの対応点の特定は,オプティカルフローや局所特徴量などの技術を用いて行う。このように特定した対応点を図27のA−A’,B−B’,C−C’のように対とし,これらを含む三角形の領域を設定する。なお,D,E,F,Gなどの点はほかのレーンの画像との間での対応点から特定した点とする。各レーン画像情報を中心線同士がレーン間の距離となるような位置に配置し,同時に対応点がすべて一致する(対応点同士が中点で重なる)ように各三角形に含まれる領域の画像情報をアフィン変換させ,画像情報同士を合成する。このとき,図28のA−B−Cの下側,A’−B’−C’の上側の画像情報を捨てる。 That is, the corresponding points A', B', and C'in the image information of the lane 2 corresponding to the points A, B, and C in the image information of the lane 1 are specified, and the image information is synthesized based on the specified corresponding points. Do. Then, the corresponding points are specified by using techniques such as optical flow and local features. The corresponding points identified in this way are paired as in AA', BB', and CC'in FIG. 27, and a triangular region including these is set. The points such as D, E, F, and G are the points specified from the corresponding points with the images of other lanes. The image information of each lane is arranged at a position where the center lines are the distances between the lanes, and at the same time, the image information of the area included in each triangle so that all the corresponding points match (the corresponding points overlap at the midpoint). Is affine-transformed, and image information is combined. At this time, the image information on the lower side of ABC and the upper side of A'-B'-C'in FIG. 28 is discarded.

このように,一連の処理は2つのレーンの画像情報について多数の対応点を探索し,その結果に基づいて画像情報を小さい領域でそれぞれアフィン変換をする必要があるため,膨大な時間を要する。そのため,撮影した結果をすぐに目視したい利用場面には適さない。 In this way, a series of processes requires a huge amount of time because it is necessary to search for a large number of corresponding points for the image information of the two lanes and to perform affine transformation of the image information in a small area based on the result. Therefore, it is not suitable for use situations where you want to see the results of shooting immediately.

また撮影対象となる路面が,湾曲をしているなどの場合の表示形式については考慮がされていなかった。 In addition, no consideration was given to the display format when the road surface to be photographed is curved.

そこで本発明者は,上記課題に鑑み,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない画像処理システムを発明した。また,撮影した結果をすぐに目視したい場合には,すぐに確認することができる画像処理システムを発明した。さらに,湾曲部分を含む撮影対象物についてもそれに応じた表示形式を可能とする画像処理システムを発明した。 Therefore, in view of the above problems, the present inventor has invented an image processing system in which image information is not lost even if fluctuations occur in the transverse direction during shooting. We also invented an image processing system that allows you to check the results of shooting immediately if you want to see them immediately. Furthermore, we have invented an image processing system that enables display formats for objects to be photographed including curved parts.

第1の発明は,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,を有しており,前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれており,前記表示処理部は,前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う,画像処理システムである。 The first invention is an image processing system for the first image information and the second image information obtained by photographing road surfaces in an adjacent range including a curved portion, and the image processing system is the same as the first image information. Based on the first region and the second region specified in the second image information, the second region in the first image information is located next to the second image information. It has a display processing unit that displays the first image information and the second image information, and a part or all of the photographing range of the second region in the first image information is the first. It is included in a part or all of the shooting range of the first region in the second image information, and the display processing unit has the first display format for displaying the first image information and the second image information. , An image processing system that performs display processing in a second display format that displays the first image information and the second image information that are expanded and contracted so that the length of the image information between unit distances is constant. ..

本発明のように構成することで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,従来のように画像情報同士の複雑な合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。さらに,湾曲がある路面を撮影した場合であっても,第1の表示形式では凹凸などの異常を実際のサイズと同様の大きさで確認することができるとともに,第2の表示形式では,隣り合う画像情報同士の横断方向のずれが少なくなるので,画像情報を横断して存在する凹凸等の異常の全体像を容易に確認することができる。 With the configuration as in the present invention, even if fluctuations occur in the transverse direction during photographing, no omission of image information occurs. In addition, since it is not necessary to perform complicated composition processing of image information as in the conventional case, it is possible to display image information by simple processing without requiring processing time. Furthermore, even when a curved road surface is photographed, abnormalities such as unevenness can be confirmed in the first display format with the same size as the actual size, and in the second display format, they are adjacent to each other. Since the deviation of the matching image information in the crossing direction is reduced, it is possible to easily confirm the entire image of the abnormality such as unevenness existing across the image information.

第2の発明は,撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,を有しており,前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれる,画像処理システムである。 The second invention is an image processing system for the first image information and the second image information obtained by photographing adjacent ranges of an object to be imaged, and the image processing system is the first image information and the first image information. Based on the first region and the second region specified in the second image information, the second region in the first image information is located next to the second image information. It has a display processing unit that displays the image information of 1 and the second image information, and a part or all of the photographing range of the second region in the first image information is the second image information. This is an image processing system included in a part or all of the shooting range of the first region in the image information.

本発明のように構成することで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,従来のように画像情報同士の複雑な合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。 With the configuration as in the present invention, even if fluctuations occur in the transverse direction during photographing, no omission of image information occurs. In addition, since it is not necessary to perform complicated composition processing of image information as in the conventional case, it is possible to display image information by simple processing without requiring processing time.

上述の発明において,前記表示処理部は,前記第1の画像情報における第2の領域が,前記第2の画像情報の第2の領域の隣に位置するように,前記第1の画像情報と前記第2の画像情報とを表示する,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit and the first image information so that the second region of the first image information is located next to the second region of the second image information. It can be configured like an image processing system that displays the second image information.

このように第2の領域同士が隣に位置するように,第1の画像情報と第2の画像情報とを表示することで,それぞれの境界付近にある凹凸などの異常を見落とすことがなくなる。 By displaying the first image information and the second image information so that the second regions are located next to each other in this way, it is not possible to overlook abnormalities such as unevenness near the respective boundaries.

上述の発明において,前記表示処理部は,さらに,前記第1の画像情報における第1の領域が,前記第2の画像情報の第1の領域の隣に位置するように,前記第1の画像情報と前記第2の画像情報とを表示する,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit further comprises the first image so that the first region of the first image information is located next to the first region of the second image information. It can be configured like an image processing system that displays information and the second image information.

第2の領域同士が隣に位置するように第1の画像情報と第2の画像情報とを表示することで,境界付近にある凹凸などの異常の見落としを減らすことはできるものの,境界付近が重複して表示される,全体のプロポーションが崩れるなど,視認性に影響を与える場合がある。そして,撮影対象物の全体の中から詳細に見るべき位置を決めるなどの場面では,より広い範囲で画像情報の表示を行うことが作業効率上,好ましい。そこで本発明のように,第1の領域同士が隣に位置するように第1の画像情報と第2の画像情報とを表示させることで,利用者の利便性を向上することができる。 By displaying the first image information and the second image information so that the second areas are located next to each other, it is possible to reduce the oversight of abnormalities such as unevenness near the boundary, but the vicinity of the boundary is Visibility may be affected, such as overlapping display or the overall proportions being corrupted. Then, in a scene such as determining a position to be viewed in detail from the entire object to be photographed, it is preferable to display the image information in a wider range in terms of work efficiency. Therefore, as in the present invention, the convenience of the user can be improved by displaying the first image information and the second image information so that the first areas are located next to each other.

上述の発明において,前記表示処理部は,さらに, 前記第1の画像情報における第2の領域が,前記第2の画像情報の第2の領域の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示形式と,前記第1の画像情報における第1の領域が,前記第2の画像情報の第1の領域に隣に位置するように,前記第1の画像情報と前記第2の画像情報とを表示する表示形式とが,切り替え可能である,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit further increases the first image information so that the second region of the first image information is located next to the second region of the second image information. The first region of the first image information and the display format for displaying the second image information and the second image information so that the first region of the first image information is located next to the first region of the second image information. The display format for displaying the image information and the second image information can be configured like an image processing system that can be switched.

本発明のように,2つの表示形式を切り替え可能とすることで,利用者は目的に沿って表示を切り替えることができるので,利用者の利便性を向上させることができる。 By making it possible to switch between the two display formats as in the present invention, the user can switch the display according to the purpose, and thus the convenience of the user can be improved.

上述の発明において,前記表示処理部は,前記第1の領域と第2の領域とを区別可能に表示をする,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit can be configured like an image processing system that displays the first region and the second region in a distinguishable manner.

上述の発明において,前記表示処理部は,前記第1の画像情報と前記第2の画像情報とを区別可能に表示をする,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit can be configured like an image processing system that displays the first image information and the second image information in a distinguishable manner.

撮影対象物がたとえば路面の場合には,アスファルト舗装されているなどの特徴があり,領域や画像情報の区別がつきにくいため,これらの発明のように,異なる領域,異なる画像情報が区別可能なように表示されていることがよい。 When the object to be photographed is, for example, a road surface, it is characterized by being paved with asphalt, and it is difficult to distinguish the area and the image information. Therefore, as in these inventions, different areas and different image information can be distinguished. It should be displayed as.

第8の発明は,撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の画像情報と前記第2の画像情報について第1の領域と第2の領域とを特定し,前記第2の領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記第1の領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部と,画像情報の表示処理を行う表示処理部と,を有しており,前記表示処理部は,前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,画像処理システムである。 The eighth invention is an image processing system for the first image information and the second image information obtained by photographing adjacent ranges of an object to be photographed, and the image processing system is the first image information and the first image information. A first region and a second region are specified for the second image information, a region outside the second region is trimmed to generate detailed image information, and a region outside the first region is generated. It has an image information processing unit that trims and generates wide area image information, and a display processing unit that performs image information display processing, and the display processing unit has the details based on the first image information. The image information and the detailed image information based on the second image information are displayed so as to be located next to each other, and the wide area image information based on the first image information and the wide area image based on the second image information are displayed. It is an image processing system that displays information so that it is located next to it.

本発明のように構成することで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,従来のように画像情報同士の複雑な合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。 With the configuration as in the present invention, even if fluctuations occur in the transverse direction during photographing, no omission of image information occurs. In addition, since it is not necessary to perform complicated composition processing of image information as in the conventional case, it is possible to display image information by simple processing without requiring processing time.

第9の発明は,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,前記画像処理システムは,前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う表示処理部,を有する画像処理システムである。 A ninth invention is an image processing system for first image information and a second image information obtained by photographing road surfaces in an adjacent range including a curved portion, and the image processing system is the same as the first image information. A first display format for displaying the second image information, and a second display format for displaying the first image information and the second image information expanded and contracted so that the length of the image information between unit distances is constant. It is an image processing system having a display processing unit that performs display processing according to the display format.

本発明のように構成することで,湾曲がある路面を撮影した場合であっても,第1の表示形式では凹凸などの異常を実際のサイズと同様の大きさで確認することができるとともに,第2の表示形式では,隣り合う画像情報同士の横断方向のずれが少なくなるので,画像情報を横断して存在する凹凸等の異常の全体像を容易に確認することができる。 With the configuration as in the present invention, even when a curved road surface is photographed, abnormalities such as unevenness can be confirmed in the first display format with the same size as the actual size. In the second display format, the deviation of adjacent image information in the crossing direction is reduced, so that the entire image of anomalies such as irregularities existing across the image information can be easily confirmed.

上述の発明において,前記表示処理部は,前記第1の表示形式において,対応する単位距離の位置関係が特定可能に表示する,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit can be configured like an image processing system in which the positional relationship of the corresponding unit distances can be identifiable in the first display format.

第1の表示形式は,画像情報のサイズが伸縮されていないので,湾曲部分の内側と外側とでは画像情報の長さが相違する。そこで,本発明のように構成することで,単位距離の位置関係を容易に認識させることができる。 In the first display format, the size of the image information is not expanded or contracted, so that the length of the image information differs between the inside and the outside of the curved portion. Therefore, by configuring as in the present invention, the positional relationship of the unit distance can be easily recognized.

上述の発明において,前記表示処理部は,前記第1の表示形式と,前記第2の表示形式とが切り替え可能である,画像処理システムのように構成することができる。 In the above-described invention, the display processing unit can be configured like an image processing system in which the first display format and the second display format can be switched.

第1の表示形式は,画像情報のサイズが伸縮されていないので,湾曲部分の内側と外側のいずれの画像情報であっても,実際のサイズに近い。そのため,凹凸などの異常があったとしても画像情報から計測して誤差が少ない利点がある。一方,第2の表示形式は,第1の画像情報と第2の画像情報の横断方向のずれが少なくなるので,境界付近に存在する凹凸等の異常の全体像を画像情報から確認する場合には有益である。そこで,これらを切り替え可能とすることで,利用者がその目的に応じて適切な表示形式を選択でき,利用者の利便性を向上させることができる。 In the first display format, since the size of the image information is not expanded or contracted, the image information inside or outside the curved portion is close to the actual size. Therefore, even if there is an abnormality such as unevenness, there is an advantage that there is little error measured from the image information. On the other hand, in the second display format, the deviation between the first image information and the second image information in the crossing direction is reduced, so that when confirming the entire image of an abnormality such as unevenness existing near the boundary from the image information. Is beneficial. Therefore, by making it possible to switch between them, the user can select an appropriate display format according to the purpose, and the convenience of the user can be improved.

第1の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,として機能させ,前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれており,前記表示処理部は,前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う,画像処理プログラムである。 The image processing system of the first invention can be realized by loading and executing the program of the present invention in a computer. That is, it is an image processing program for the first image information and the second image information obtained by photographing the road surfaces in the adjacent range including the curved portion, and the image processing program uses the computer as the first image information and the first image information. Based on the first region and the second region specified in the second image information, the second region in the first image information is located next to the second image information. It functions as a display processing unit that displays the first image information and the second image information, and a part or all of the shooting range of the second region in the first image information is the second image. It is included in a part or all of the shooting range of the first region in the information, and the display processing unit has the first display format for displaying the first image information and the second image information, and a unit distance. This is an image processing program that performs display processing in a second display format that displays the first image information and the second image information that are expanded and contracted so that the length of the image information between them becomes constant.

第2の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,として機能させ,前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれる,画像処理プログラムである。 The image processing system of the second invention can be realized by loading and executing the program of the present invention in a computer. That is, it is an image processing program for the first image information and the second image information in which the adjacent ranges of the objects to be photographed are photographed, and the image processing program uses the computer as the first image information and the second image information. Based on the first region and the second region specified in the image information of the above, the first region of the first image information is located next to the second image information. It functions as a display processing unit that displays the image information of the above and the second image information, and a part or all of the shooting range of the second region in the first image information is in the second image information. This is an image processing program included in a part or all of the shooting range of the first region.

第8の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の画像情報と前記第2の画像情報について第1の領域と第2の領域とを特定し,前記第2の領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記第1の領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部,画像情報の表示処理を行う表示処理部,として機能させ,前記表示処理部は,前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,画像処理プログラムである。 The image processing system of the eighth invention can be realized by loading and executing the program of the present invention in a computer. That is, it is an image processing program for the first image information and the second image information obtained by photographing the adjacent ranges of the objects to be photographed, and the image processing program uses the computer as the first image information and the second image information. The first region and the second region are specified with respect to the image information of the above, the region outside the second region is trimmed to generate detailed image information, and the region outside the first region is defined. It functions as an image information processing unit that trims to generate wide area image information and a display processing unit that performs image information display processing, and the display processing unit performs the detailed image information based on the first image information and the first. The detailed image information based on the image information of 2 is displayed so as to be located next to each other, and the wide area image information based on the first image information and the wide area image information based on the second image information are next to each other. It is an image processing program that displays as it is located.

第9の発明の画像処理システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,前記画像処理プログラムは,コンピュータを,前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う表示処理部,として機能させる画像処理プログラムである。 The image processing system of the ninth invention can be realized by loading and executing the program of the present invention in a computer. That is, it is an image processing program for the first image information and the second image information obtained by photographing the road surfaces in the adjacent range including the curved portion, and the image processing program uses the computer as the first image information and the first image information. A first display format for displaying the second image information, and a second display for displaying the first image information and the second image information expanded and contracted so that the length of the image information between unit distances is constant. It is an image processing program that functions as a display processing unit that performs display processing according to the format.

本発明を用いることで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない画像処理システムが可能となる。また,撮影した結果をすぐに目視したい場合には,すぐに確認することができる画像処理システムを発明した。 By using the present invention, it is possible to realize an image processing system in which image information is not lost even if fluctuations occur in the transverse direction during photographing. We also invented an image processing system that allows you to check the results of shooting immediately if you want to see them immediately.

本発明の画像処理システムの全体の構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the whole structure of the image processing system of this invention. 本発明の画像処理システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the hardware composition of the computer used in the image processing system of this invention. 本発明の画像処理システムにおける画像情報処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of image information processing in the image processing system of this invention. 本発明の画像処理システムにおける詳細画像情報の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of detailed image information in the image processing system of this invention. 本発明の画像処理システムにおける広域画像情報の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of wide area image information in the image processing system of this invention. 本発明の画像処理システムで処理対象とする画像情報および位置情報を計測するための移動体搭載装置を車両に取り付けた場合の側面図である。It is a side view when the moving body mounting device for measuring the image information and the position information to be processed by the image processing system of this invention is attached to a vehicle. 本発明の画像処理システムで処理対象とする画像情報および位置情報を計測するための移動体搭載装置を車両に取り付けた場合の後方図である。It is a rear view when the moving body mounting device for measuring the image information and the position information to be processed by the image processing system of this invention is attached to a vehicle. 移動体搭載装置の構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the structure of the mobile body mounting apparatus. 撮影装置による撮影と照明装置による光の照射との関係を示す図である。It is a figure which shows the relationship between the photographing by the photographing apparatus and the irradiation of light by an illuminating apparatus. 撮影画像情報の伸縮を調整する伸縮処理を模式的に示す図である。It is a figure which shows typically the expansion / contraction processing which adjusts expansion / contraction of photographed image information. 撮影画像情報に対する剪断変形処理を模式的に示す図である。It is a figure which shows typically the shearing deformation processing with respect to photographed image information. 滑走路の路面をコースに区切り,各コースを移動体が走行して移動体搭載装置による撮影を行う場合を模式的に示す図である。It is a figure which shows typically the case where the road surface of a runway is divided into courses, and a moving body runs on each course and takes a picture by a moving body mounting device. 移動体が書くコースを走行することにより撮影されたレーンの画像情報を,位置情報が対応するように時系列的に並べた状態を模式的に示す図である。It is a figure which shows typically the state which arranged the image information of the lane photographed by running the course written by a moving body in time series so that the position information corresponds. 撮影画像情報においてレーン線と,マージン線とを特定し表示した状態の一例を示す。An example of a state in which the lane line and the margin line are specified and displayed in the captured image information is shown. 詳細画像情報の一例を示す。An example of detailed image information is shown. 広域画像情報の一例を示す。An example of wide area image information is shown. 位置情報の補正を模式的に示す図である。It is a figure which shows the correction of the position information schematically. 詳細表示処理をした場合の一例を示す図である。It is a figure which shows an example in the case of performing the detailed display processing. 広域表示処理をした場合の一例を示す図である。It is a figure which shows an example in the case of performing a wide area display processing. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 表示画面の表示領域Bに広域画像情報として表示する一例を示す図である。It is a figure which shows an example which displays as wide area image information in the display area B of a display screen. 表示画面の表示領域Cに詳細画像情報として表示する一例を示す図である。It is a figure which shows an example which displays as detailed image information in the display area C of a display screen. 湾曲箇所がある場合のコースの一例を示す図である。It is a figure which shows an example of the course when there is a curved part. 実距離表示モードによるレーンの撮影画像情報の表示の一例を模式的に示す図である。It is a figure which shows typically an example of the display of the photographed image information of a lane in an actual distance display mode. キロポスト表示モードによるレーンの撮影画像情報の表示の一例を模式的に示す図である。It is a figure which shows typically an example of the display of the photographed image information of a lane in a kilometer post display mode. 撮影対象とする路面をコースに区切り,各コースを移動体が走行して路面の撮影を行う場合を模式的に示す図である。It is a figure which shows typically the case where the road surface to be photographed is divided into a course, and a moving body travels on each course and photographs the road surface. 画像情報の合成処理において隣接する画像情報の対応点を特定する処理を模式的に示す図である。It is a figure which shows typically the process of specifying the corresponding point of the adjacent image information in the image information composition process. 画像情報の合成処理において対応点がすべて一致する各三角形に含まれる領域の画像情報をアフィン変換して画像情報同士を合成する処理を模式的に示す図である。It is a figure which shows typically the process of synthesizing image information by affine transformation of the image information of the region included in each triangle which all corresponding points match in the image information composition process.

本発明の画像処理システム1の全体の構成の一例のブロック図を図1に示す。また,本発明の画像処理システム1で用いるコンピュータのハードウェア構成の一例のブロック図を図2に示す。 FIG. 1 shows a block diagram of an example of the overall configuration of the image processing system 1 of the present invention. Further, FIG. 2 shows a block diagram of an example of the hardware configuration of the computer used in the image processing system 1 of the present invention.

画像処理システム1は,後述する移動体搭載装置2で撮影した画像情報(撮影画像情報)と,計測した位置情報とを対応づけ,その表示処理を実行する。また,画像処理システム1は,移動体搭載装置2で撮影,計測した各情報が記録装置23に記録され,そこに記録された情報に基づいて処理を実行する。画像処理システム1の処理は,サーバやパーソナルコンピュータのほか,スマートフォンやタブレット型コンピュータなどの可搬型通信端末などのコンピュータによって実現される。 The image processing system 1 associates the image information (photographed image information) captured by the mobile body mounting device 2 described later with the measured position information, and executes the display processing. Further, the image processing system 1 records each information photographed and measured by the mobile body mounting device 2 in the recording device 23, and executes processing based on the information recorded therein. The processing of the image processing system 1 is realized by a computer such as a portable communication terminal such as a smartphone or a tablet computer in addition to a server or a personal computer.

コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,ディスプレイなどの表示装置72と,情報の入力を行う入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報の通信をする通信装置74とを有している。なお,コンピュータがタッチパネルディスプレイを備えている場合には表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 The computer includes an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk that stores information, a display device 72 such as a display, and an input device 73 that inputs information. It has a communication device 74 for communicating the processing result of the arithmetic unit 70 and the information stored in the storage device 71. When the computer is provided with a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used, for example, in portable communication terminals such as tablet computers and smartphones, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

画像処理システム1のコンピュータは,一台のコンピュータであってもよいし,その機能が複数のコンピュータによって実現されていてもよい。この場合のコンピュータとして,たとえばクラウドサーバであってもよい。 The computer of the image processing system 1 may be one computer, or its function may be realized by a plurality of computers. The computer in this case may be, for example, a cloud server.

本発明の画像処理システム1における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。 Each means in the image processing system 1 of the present invention is only logically distinguished in its function, and may form the same area physically or substantially.

画像処理システム1は移動体搭載装置2で撮影した画像情報に基づいて処理を実行することが好ましいが,それに限定するものではない。 The image processing system 1 preferably executes processing based on image information captured by the mobile body mounting device 2, but is not limited thereto.

移動体搭載装置2は,路面を走行する車両Cなどの移動体に搭載される装置であって,路面を撮影する少なくとも1台以上の撮影装置20と,2台以上の撮影装置20がある場合に各撮影装置20を同期して撮影を行わせる同期装置22と,位置情報を計測する位置情報計測装置21と,撮影装置20で撮影した撮影画像情報および撮影時刻と位置情報計測装置21で計測した位置情報および時刻とを記録する記録装置23とを有する。 The mobile body mounting device 2 is a device mounted on a moving body such as a vehicle C traveling on a road surface, and there are at least one or more photographing devices 20 for photographing the road surface and two or more photographing devices 20. A synchronization device 22 that synchronizes each photographing device 20 to perform photographing, a position information measuring device 21 that measures position information, and a photographed image information photographed by the photographing device 20 and a shooting time and position information measuring device 21. It has a recording device 23 that records the location information and the time.

移動体搭載装置2を搭載した移動体としての車両Cの一例を図6および図7を示す。図6は,移動体搭載装置2を搭載した車両Cの側面図であり,図7は,移動体搭載装置2を搭載した車両Cの背面図である。また図8に移動体搭載装置2の構成の一例をブロック図で示す。 6 and 7 show an example of the vehicle C as a moving body equipped with the moving body mounting device 2. FIG. 6 is a side view of the vehicle C equipped with the mobile body mounting device 2, and FIG. 7 is a rear view of the vehicle C equipped with the mobile body mounting device 2. Further, FIG. 8 shows an example of the configuration of the mobile body mounting device 2 in a block diagram.

撮影装置20は移動体が移動する路面を撮影する装置であって,少なくとも1台以上を備えている。なお,図6および図7では2台の撮影装置20を備えた場合を示している。撮影装置20としては,好ましくはラインセンサを用いることができるがそれに限定するものではない。ラインセンサは,線単位で路面状況を撮影する。たとえば1mm移動するたびに1mm分の路面を撮影をする。移動距離の検出は距離計を用いればよい。すなわち1mm移動することを距離計で検出することで撮影装置20により撮影を行う。ラインセンサはレンズとラインセンサ素子とを有する。ラインセンサのレンズは,路面を撮影可能なように,路面側に向けられている。ラインセンサは,路面の映像をレンズによってラインセンサ素子に結像させ,その光量をビデオ信号に変換して画像情報として出力する。ラインセンサが撮影した各画像情報は1mm分の画像情報である。そのため,ラインセンサは,所定の単位枚数分(たとえば1000枚分)の画像情報を連結し,一つの画像情報として後述する記録装置23に記録する。この単位枚数分の画像情報を撮影画像情報(またはフレーム)とする。 The photographing device 20 is a device for photographing a road surface on which a moving body moves, and includes at least one or more. Note that FIGS. 6 and 7 show a case where two photographing devices 20 are provided. As the photographing device 20, a line sensor can be preferably used, but the imaging device 20 is not limited thereto. The line sensor captures the road surface condition on a line-by-line basis. For example, every time the vehicle moves 1 mm, a 1 mm road surface is photographed. A range finder may be used to detect the travel distance. That is, by detecting the movement of 1 mm with the range finder, the photographing device 20 takes an image. The line sensor has a lens and a line sensor element. The lens of the line sensor is directed toward the road surface so that the road surface can be photographed. The line sensor forms an image of the road surface on the line sensor element with a lens, converts the amount of light into a video signal, and outputs it as image information. Each image information taken by the line sensor is 1 mm of image information. Therefore, the line sensor connects image information for a predetermined unit number of images (for example, 1000 images) and records the image information as one image information in the recording device 23 described later. The image information for the number of units is used as the captured image information (or frame).

撮影装置20は路面の撮影を開始する際には,位置情報計測装置21が所定のPPS信号を用いて,撮影装置20に対して計測開始のコマンドを送る。このコマンドを受け付けた撮影装置20は,撮影を開始するとともに,内蔵した計時手段を「0」にリセットして計時を開始する。そして,撮影装置20で所定の単位枚数,たとえば1000枚分を撮影したところで,計時手段で計時している時刻(相対時刻)を,撮影画像情報に対応づけて記録する。そして,計時手段はそのまま計時を継続し,次の単位枚数分の画像情報を撮影した時点における時刻を,撮影画像情報に対応づけて記録する。これを撮影が終了するまで反復する。すなわち,撮影装置20で単位枚数の画像情報を撮影するごとに,計時手段で計時している時刻(相対時刻)を記録し,撮影画像情報に対応づけて記録しておく。それぞれの単位枚数の画像情報を撮影するのに要した時間は,撮影画像情報に対応づけて記録している相対時刻の差分を演算すれば算出できる。このように撮影装置20での撮影を開始するタイミングと,位置情報計測装置21で位置情報および時刻情報を取得したタイミングとが同期をしていることから,撮影画像情報ごとの時刻情報は,位置情報計測装置21で取得した位置情報に,上記算出した時間を加算することで算出することができる。撮影画像情報ごとの時刻情報は,後述する画像情報処理部10の処理の際に算出をしてもよいし,撮影装置20が撮影画像情報を記録装置23に記録する際に行うなど,任意のタイミングで行うことができる。 When the photographing device 20 starts photographing the road surface, the position information measuring device 21 sends a measurement start command to the photographing device 20 using a predetermined PPS signal. The photographing device 20 that has received this command starts photographing and resets the built-in timing means to "0" to start timing. Then, when a predetermined number of units, for example, 1000 images, are photographed by the photographing apparatus 20, the time (relative time) measured by the timing means is recorded in association with the photographed image information. Then, the timekeeping means continues the timekeeping as it is, and records the time at the time when the image information for the next unit number is taken in association with the taken image information. This is repeated until the shooting is completed. That is, each time the photographing device 20 captures a unit number of image information, the time (relative time) measured by the timing means is recorded and recorded in association with the captured image information. The time required to capture each unit of image information can be calculated by calculating the difference in the relative time recorded in association with the captured image information. Since the timing of starting shooting with the photographing device 20 and the timing of acquiring the position information and the time information with the position information measuring device 21 are synchronized in this way, the time information for each photographed image information is the position. It can be calculated by adding the above-calculated time to the position information acquired by the information measuring device 21. The time information for each captured image information may be calculated at the time of processing of the image information processing unit 10 described later, or may be performed when the photographing device 20 records the photographed image information on the recording device 23. It can be done at the timing.

上述の単位枚数の画像情報を撮影するのに要した時間の記録は,計時手段で単位枚数ごとの撮影に要した時間を計時するとともに,撮影画像情報の撮影順番を対応づけて記録しておくのでもよいし,ほかの方法であってもよい。 To record the time required to shoot the image information of the above-mentioned unit number, the time required to shoot each unit number is timed by a timekeeping means, and the shooting order of the shot image information is recorded in association with each other. It may be, or it may be another method.

なお,撮影装置20としてラインセンサを用いず,通常の光学式カメラなどを用いる場合には,その撮影をした画像情報が撮影画像情報であり,また撮影画像情報ごとの時刻情報を記録しておけばよい。 When a normal optical camera or the like is used instead of the line sensor as the photographing device 20, the photographed image information is the photographed image information, and the time information for each photographed image information should be recorded. Just do it.

移動体搭載装置2は,2台以上の撮影装置20がある場合には,同期装置22を備える。同期装置22は,移動体搭載装置2における少なくとも2台以上の撮影装置20の撮影タイミングを同期させて路面を撮影する。 The mobile body mounting device 2 includes a synchronization device 22 when there are two or more photographing devices 20. The synchronization device 22 photographs the road surface by synchronizing the imaging timings of at least two or more imaging devices 20 in the mobile body mounting device 2.

位置情報計測装置21は,たとえばGPS装置であり,その位置情報を計測し,時刻情報を取得する。位置情報としてはたとえば緯度,経度が好ましいが,それに限定するものではない。位置情報計測装置21で計測した位置情報および時刻情報は,後述する記録装置23に記録する。位置情報計測装置21は,高精度のGPSレシーバー,たとえば「HemishereA101」などを用いることができる。 The position information measuring device 21 is, for example, a GPS device, which measures the position information and acquires the time information. For example, latitude and longitude are preferable as the position information, but the position information is not limited thereto. The position information and time information measured by the position information measuring device 21 are recorded in the recording device 23 described later. As the position information measuring device 21, a high-precision GPS receiver, for example, "Hemishere A101" or the like can be used.

位置情報計測装置21は,一定のタイミングごとに位置情報および時刻情報を取得する。たとえば1秒間に10回,1秒間に20回などのタイミングで位置情報および時刻情報を取得する。 The position information measuring device 21 acquires position information and time information at regular timing intervals. For example, position information and time information are acquired at timings such as 10 times per second and 20 times per second.

記録装置23は,撮影装置20で撮影した撮影画像情報と,位置情報計測装置21で計測した位置情報とを記録する。記録装置23は,移動体搭載装置2の一部として,移動体に設けてもよいし,クラウドサーバなどを用い,移動体の外部に設けてもよい。 The recording device 23 records the photographed image information photographed by the photographing device 20 and the position information measured by the position information measuring device 21. The recording device 23 may be provided on the mobile body as a part of the mobile body mounting device 2, or may be provided outside the mobile body by using a cloud server or the like.

移動体搭載装置2は,移動体にどのように取り付けられていてもよく,たとえば図6および図7に示すように,移動体の後方に取り付けられるとよいが,それに限定するものではない。たとえば移動体の前方に取り付けられていてもよい。撮影装置20は,移動体の後端部よりも後方に位置しており,路面を上方から撮影する。撮影装置20は,移動体のルーフキャリア40などに取り付けた金属製の取付ビーム26(支持体)の後端部付近に設置される。 The mobile body mounting device 2 may be mounted on the mobile body in any way, and may be mounted on the rear side of the mobile body, for example, as shown in FIGS. 6 and 7, but is not limited thereto. For example, it may be attached to the front of the moving body. The photographing device 20 is located behind the rear end portion of the moving body, and photographs the road surface from above. The photographing device 20 is installed near the rear end portion of the metal mounting beam 26 (support) mounted on the roof carrier 40 or the like of the moving body.

取付ビーム26における撮影装置20の取り付け箇所の近傍には,位置情報計測装置21が取り付けられている。 A position information measuring device 21 is mounted in the vicinity of the mounting location of the photographing device 20 in the mounting beam 26.

取付ビーム26の撮影装置20の付近から路面側に対して,支柱25aが下方に突出しており,照明装置24の上端部付近で接合している。また,照明装置24は,移動体の後端下部側に設けられた照明支持台27から上方に突出している支柱25b,25cとそれぞれ接合をしている。支柱25bは照明装置24の下方付近で接合しており,支柱25cは照明装置24の上方付近で接合している。なお,照明装置24の支持方法はいかなる方法であってもよい。 A support column 25a projects downward from the vicinity of the photographing device 20 of the mounting beam 26 toward the road surface side, and is joined near the upper end portion of the lighting device 24. Further, the lighting device 24 is joined to the columns 25b and 25c protruding upward from the lighting support base 27 provided on the lower rear end side of the moving body, respectively. The columns 25b are joined near the bottom of the lighting device 24, and the columns 25c are joined near the top of the lighting device 24. The method of supporting the lighting device 24 may be any method.

照明装置24は,LEDなどの光源により,平行光または平行光に近い光を路面に対して照射する。照明装置24は,路面の変状に対してくっきりした均質の陰影ができるように路面を照らすために,路面に平行光に近い光を当てる。そのため光源としては指向性の高いLEDが好ましいが,それに限定されない。平行光を照射する角度は水平に近ければ陰影が大きくなりすぎ,垂直に近ければ陰影が生じないため,照明装置24を路面に対して一定の角度で傾けて照射することが好ましい。傾斜の方向は,撮影対象とする路面の特性に合わせればよい。撮影装置20による撮影と照明装置24による光の照射との関係を図9に示す。図9(a)では移動体の後方から撮影装置20による撮影と照明装置24による光の照射との関係を示す図であり,図9(b)は移動体の側方から撮影装置20による撮影と照明装置24による光の照射との関係を示す図である。撮影装置20の間隔Aは撮影対象とする幅方向の範囲,撮影装置20を取り付ける高さの位置関係,撮影装置20の画角にもよるが,たとえば260cm程度を撮影幅とし,撮影装置20を路面から140cm程度,撮影装置20の画角が約90度とすると,撮影装置20の間隔Aは,路面までの距離の約10%,たとえば14cm程度の間隔とすることが好ましい。 The lighting device 24 irradiates the road surface with parallel light or light close to parallel light by a light source such as an LED. The illuminating device 24 irradiates the road surface with light close to parallel light in order to illuminate the road surface so as to form a clear and homogeneous shadow against the deformation of the road surface. Therefore, an LED having high directivity is preferable as the light source, but the light source is not limited thereto. If the angle of irradiating the parallel light is close to horizontal, the shadow becomes too large, and if it is close to vertical, no shadow is generated. Therefore, it is preferable to irradiate the lighting device 24 at a constant angle with respect to the road surface. The direction of inclination may be adjusted to the characteristics of the road surface to be photographed. FIG. 9 shows the relationship between the photographing by the photographing device 20 and the irradiation of light by the lighting device 24. FIG. 9A is a diagram showing the relationship between photographing by the photographing device 20 from the rear of the moving body and irradiation of light by the lighting device 24, and FIG. 9B is a drawing taken by the photographing device 20 from the side of the moving body. It is a figure which shows the relationship with the irradiation of light by a lighting apparatus 24. The interval A of the photographing device 20 depends on the range in the width direction to be photographed, the positional relationship of the height at which the photographing device 20 is attached, and the angle of view of the photographing device 20, but for example, the photographing width is about 260 cm, and the photographing device 20 is set. Assuming that the distance from the road surface is about 140 cm and the angle of view of the photographing device 20 is about 90 degrees, the distance A between the photographing devices 20 is preferably about 10% of the distance to the road surface, for example, about 14 cm.

なお,上記の寸法と各角度の関係は一例であって,寸法と角度はそれぞれ好適な関係となるように調整すればよい。 The relationship between the above dimensions and each angle is an example, and the dimensions and the angles may be adjusted so as to have a suitable relationship with each other.

また移動体の前方には,移動体の走行方向を路面に投影する投影装置30を備える。移動体には,図示しない管理コンピュータを備えておき,管理コンピュータによって特定されるガイド情報(移動体が走行すべき走行ルート(コース)を示すガイド情報)を投影装置30から投影する。管理コンピュータにおける処理および投影装置30からのガイド情報の投影の処理は,たとえば特開2017−090189号に記載の技術を用いることができるがそれに限定されない。 Further, in front of the moving body, a projection device 30 that projects the traveling direction of the moving body onto the road surface is provided. The moving body is provided with a management computer (not shown), and guide information (guide information indicating a traveling route (course) to be traveled by the moving body) specified by the management computer is projected from the projection device 30. For the processing in the management computer and the processing of projecting the guide information from the projection device 30, for example, the technique described in JP-A-2017-090189 can be used, but the processing is not limited thereto.

管理コンピュータ(図示せず)は,たとえば以下のような処理によって実現できる。GPS装置などの位置情報を取得する装置(移動体搭載装置2の位置情報計測装置21を兼用してもよい)によって緯度,経度情報,進行方向の情報を取得する。また走行ガイドを行う実空間(撮影対象とする路面のある空間)の一部または全部を2次元または3次元モデル化した空間情報(仮想空間情報)を記憶しておく。この際に,仮想空間情報を所定間隔で長さ,幅方向に区切り,長さ方向を,撮影対象とする路面の撮影範囲の所定位置からの距離(たとえば,メートル単位で0から3000)で表し,幅方向を,幅方向の基準位置からの撮影範囲を考慮した所定幅ごとのコース番号(たとえば,中央のコース番号0を基準として,その左右のコース番号を−10から+10とする)で表す。そして取得した位置情報,進行方向の情報に基づいて,対応する仮想空間の情報の一部を投影装置30から移動体の走行方向の前方の路面に投影させる。このコースのガイド情報に従って,移動体の運転者は移動体の走行を行う。 The management computer (not shown) can be realized by, for example, the following processing. The latitude, longitude information, and traveling direction information are acquired by a device that acquires position information such as a GPS device (the position information measuring device 21 of the mobile body mounting device 2 may also be used). In addition, spatial information (virtual space information) in which a part or all of the real space (the space with the road surface to be photographed) for which the traveling guide is performed is modeled in two or three dimensions is stored. At this time, the virtual space information is divided into the length and width directions at predetermined intervals, and the length direction is represented by the distance from the predetermined position of the shooting range of the road surface to be shot (for example, 0 to 3000 in meters). , The width direction is represented by a course number for each predetermined width in consideration of the shooting range from the reference position in the width direction (for example, the center course number 0 is used as a reference, and the left and right course numbers are -10 to +10). .. Then, based on the acquired position information and travel direction information, a part of the corresponding virtual space information is projected from the projection device 30 onto the road surface in front of the moving body in the traveling direction. According to the guide information of this course, the driver of the moving body runs the moving body.

なお,走行経路(コース)のガイドは,このような投影装置30を用いた場合,あるいは管理コンピュータによる処理以外の方法,たとえばカーナビゲーションシステムなどであってもよい。 The guide of the traveling route (course) may be a method other than the case where such a projection device 30 is used or the processing by the management computer, for example, a car navigation system.

画像処理システム1は,移動体搭載装置2で記録した撮影画像情報,位置情報,時刻情報を用いて,撮影した画像情報を,表示装置72上で表示をする。画像処理システム1の処理を実行するコンピュータは,移動体搭載装置2を搭載した移動体に搭載されていてもよいし,移動体に搭載していなくてもよい。 The image processing system 1 displays the photographed image information on the display device 72 by using the photographed image information, the position information, and the time information recorded by the mobile body mounting device 2. The computer that executes the processing of the image processing system 1 may or may not be mounted on the mobile body equipped with the mobile body mounting device 2.

画像処理システム1は,画像情報処理部10と位置情報処理部11と画像情報記憶部12と表示処理部13とを有する。 The image processing system 1 includes an image information processing unit 10, a position information processing unit 11, an image information storage unit 12, and a display processing unit 13.

画像情報処理部10は,移動体搭載装置2の記録装置23に記録した撮影画像情報を取得し,後述の画像情報記憶部12に記憶させる。画像情報処理部10は,必要に応じて,撮影画像情報に対して補正処理を実行してもよい。 The image information processing unit 10 acquires the captured image information recorded in the recording device 23 of the mobile body mounting device 2 and stores it in the image information storage unit 12 described later. The image information processing unit 10 may execute correction processing on the captured image information, if necessary.

画像情報処理部10は,撮影装置20が複数ある場合には,いずれか一つの撮影装置20を選択し,選択した撮影装置20で撮影した撮影画像情報を時系列的につなげることで,路面の表面を連続させた画像情報とすることができる。 When there are a plurality of photographing devices 20, the image information processing unit 10 selects one of the photographing devices 20 and connects the photographed image information photographed by the selected photographing device 20 in chronological order to obtain the road surface. It can be image information in which the surface is continuous.

なお,画像情報処理部10は,撮影装置20が複数ある場合には,それぞれで撮影した撮影画像情報の共通の撮影範囲のみをトリミングしてもよい。 When there are a plurality of photographing devices 20, the image information processing unit 10 may trim only the common photographing range of the photographed image information photographed by each.

画像情報処理部10は,撮影画像情報の伸縮を調整し,その大きさを補正する伸縮処理を実行する。移動体における距離計には誤差があることから,この誤差を,撮影画像情報を伸縮することで補正する。たとえば1mmの単位で計測する距離計に1%の誤差がある場合,3000mの滑走路では始点と終点で30mの誤差が生じる。そのため,撮影画像情報をそのまま連続的に並べたときに,後述する位置情報処理部11で補正した位置情報を用いて,撮影画像情報の伸縮を調整し,その大きさを補正することで,そのずれが最小となるようにする。 The image information processing unit 10 adjusts the expansion and contraction of the captured image information, and executes the expansion and contraction processing for correcting the size thereof. Since there is an error in the range finder in the moving body, this error is corrected by expanding and contracting the captured image information. For example, if there is a 1% error in the rangefinder that measures in units of 1 mm, there will be an error of 30 m between the start point and the end point on the 3000 m runway. Therefore, when the captured image information is continuously arranged as it is, the expansion and contraction of the captured image information is adjusted by using the position information corrected by the position information processing unit 11 described later, and the size is corrected. Try to minimize the deviation.

この処理を模式的に示すのが図10である。図10では撮影装置20としてラインセンサを用いた場合を示している。まず画像情報処理部10は,撮影画像情報を,それぞれ撮影した時刻の順番に整列する。撮影装置20による撮影を開始するタイミング(rt0)と,位置情報計測装置21による時刻情報(at0)とは同期をしていることから,位置情報計測装置21で時刻情報を取得した時点から撮影装置20による撮影が開始されている。そして,撮影画像情報ごとに相対時間(rt1,rt2,rt3,・・・)が対応づけて記録されている。一方,位置情報計測装置21は,所定の間隔,たとえば1秒間に10回または20回などの間隔で,位置情報と時刻情報とを取得しているが,撮影画像情報の幅(たとえば所定単位の枚数が1000枚のとき1m)となったときに,必ずしも位置情報計測装置21で位置情報を取得しているとは限らない。 FIG. 10 schematically shows this process. FIG. 10 shows a case where a line sensor is used as the photographing device 20. First, the image information processing unit 10 arranges the captured image information in the order of the captured time. Since the timing (rt0) at which the photographing device 20 starts shooting and the time information (at0) by the position information measuring device 21 are synchronized, the photographing device starts from the time when the time information is acquired by the position information measuring device 21. Shooting by 20 has started. Then, the relative time (rt1, rt2, rt3, ...) Is associated and recorded for each photographed image information. On the other hand, the position information measuring device 21 acquires the position information and the time information at a predetermined interval, for example, 10 times or 20 times per second, but the width of the captured image information (for example, a predetermined unit). When the number of sheets reaches 1000 (1 m), the position information measuring device 21 does not always acquire the position information.

そこで,画像情報処理部10は撮影画像情報の終端に対応する位置情報を算出する。具体的には,たとえば撮影画像情報2では,位置情報計測装置21で取得した時刻情報at6とat7の間で撮影画像情報2の終端に対応する位置がある。そこで,位置情報計測装置21で取得した時刻情報at6のときの位置情報P6(図10のC)と,位置情報計測装置21で取得した時刻情報at7のときの位置情報P7(図10のB)とから,比例配分によって,撮影画像情報2の終端に対応する位置(図10のA)を算出することができる。 Therefore, the image information processing unit 10 calculates the position information corresponding to the end of the captured image information. Specifically, for example, in the captured image information 2, there is a position corresponding to the end of the captured image information 2 between the time information at6 and at7 acquired by the position information measuring device 21. Therefore, the position information P6 (C in FIG. 10) when the time information at6 is acquired by the position information measuring device 21, and the position information P7 (B in FIG. 10) when the time information at7 is acquired by the position information measuring device 21. Therefore, the position (A in FIG. 10) corresponding to the end of the captured image information 2 can be calculated by the proportional distribution.

比例配分の算出方法にはさまざまなものがあるが,撮影画像情報2の終端に対応する位置における相対時間rt2は分かっているので,位置情報計測装置21で取得した時刻情報at0に,撮影画像情報ごとの相対時間rt1,rt2を加算することで,撮影画像情報2の終端に対応する位置Aにおける時刻情報を特定できる。ここで特定した時刻情報と,位置情報計測装置21で取得した時刻情報at6,at7とを比例配分することで比率が特定できるので,時刻情報at6のときの位置情報P6と,時刻情報at7のときの位置情報P7とを上記比率を用いて演算することで,撮影画像情報2の終端に対応する位置Aの位置情報を特定できる。 There are various methods for calculating the proportional distribution, but since the relative time rt2 at the position corresponding to the end of the captured image information 2 is known, the captured image information is added to the time information at0 acquired by the position information measuring device 21. By adding the relative times rt1 and rt2 for each, the time information at the position A corresponding to the end of the captured image information 2 can be specified. Since the ratio can be specified by proportionally distributing the time information specified here and the time information at6 and at7 acquired by the position information measuring device 21, the position information P6 when the time information at6 and the time information at7 are used. By calculating the position information P7 of the above using the above ratio, the position information of the position A corresponding to the end of the captured image information 2 can be specified.

このように,撮影画像情報ごとの位置情報が特定できれば,撮影画像情報の始端位置(始端位置は隣接する一つ前の撮影画像情報の終端位置)と終端位置とを比較することで撮影画像情報の実際の距離が算出できる。一方,撮影装置20は,所定単位の枚数,たとえば1mm分の1000枚の画像情報で構成されているので,その幅は1mである。そうすると,上記で算出した実際の距離と,所定単位の枚数と撮影の幅に基づく幅1mとを比較して,そのずれが撮影画像情報の伸縮率となる。たとえば,実際の距離が1010mmである場合,1%のずれがあるので,当該撮影画像情報を1%伸ばす処理を行う。この処理を撮影画像情報ごとに実行することで,撮影画像情報について,位置情報計測装置21で計測した精度の高い位置情報に基づく距離と合致するように,撮影画像情報を伸縮し,その大きさを補正することができる。 In this way, if the position information for each captured image information can be specified, the captured image information can be compared between the start position of the captured image information (the start position is the end position of the adjacent previous captured image information) and the end position. The actual distance of can be calculated. On the other hand, since the photographing device 20 is composed of a predetermined number of images, for example, 1000 images for 1 mm, the width thereof is 1 m. Then, the actual distance calculated above is compared with the number of sheets in a predetermined unit and the width of 1 m based on the width of shooting, and the deviation becomes the expansion / contraction rate of the shot image information. For example, when the actual distance is 1010 mm, there is a deviation of 1%, so the process of extending the captured image information by 1% is performed. By executing this process for each photographed image information, the photographed image information is expanded and contracted so as to match the distance based on the highly accurate position information measured by the position information measuring device 21, and its size. Can be corrected.

さらに画像情報処理部10は,移動体の進行方向に対する横方向のずれを補正する剪断変形処理も実行する。これは,撮影画像情報の始端位置と終端位置との進行方向に対する横方向の位置情報の変化によって剪断変形処理を実行することで行える。この処理を図11に模式的に示す。 Further, the image information processing unit 10 also executes a shear deformation process for correcting a lateral deviation of the moving body with respect to the traveling direction. This can be done by executing the shear deformation process by changing the position information in the lateral direction with respect to the traveling direction between the start position and the end position of the captured image information. This process is schematically shown in FIG.

画像情報処理部10は,上述のように撮影画像情報に対して,伸縮処理,剪断変形処理などのほか,台形補正処理,ノイズ除去処理などの適宜,必要な補正処理を実行してもよい。 As described above, the image information processing unit 10 may perform necessary correction processing such as trapezoidal correction processing and noise removal processing in addition to expansion / contraction processing and shear deformation processing for the captured image information.

また,図12に示すように,たとえば滑走路の路面をコース1,コース2として区切り,各コースを移動体が走行して移動体搭載装置2による撮影をそれぞれ行う場合,コース1を走行することにより撮影されたレーン1の撮影画像情報(補正後の撮影画像情報も含む。本明細書において同様),コース2を走行することにより撮影されたレーン2の撮影画像情報を,位置情報が対応するように時系列的に並べた状態は図13に示すようになる。補正後の撮影画像情報においても揺らぎが生じるのは,剪断変形処理によっても補正できない横断方向への揺らぎが生じるからである。なお,図12以降における斜線部分は,レーン間の関係をわかりやすくするために付しているものである。 Further, as shown in FIG. 12, for example, when the road surface of the runway is divided into courses 1 and 2, and a moving body travels on each course and photographs are taken by the moving body mounting device 2, the course 1 is traveled. The position information corresponds to the photographed image information of the lane 1 photographed by the above (including the photographed image information after correction; the same applies in the present specification) and the photographed image information of the lane 2 photographed by traveling on the course 2. The state of being arranged in chronological order as shown in FIG. 13 is shown in FIG. Fluctuations also occur in the corrected captured image information because fluctuations in the transverse direction that cannot be corrected by the shear deformation process also occur. The shaded areas in FIGS. 12 and 12 are added to make it easier to understand the relationship between the lanes.

そこで,画像情報処理部10は,撮影画像情報について,レーンの領域を示すレーン線Lと,マージン領域を示すマージン線Mとを設定する。レーンの領域とは,上述のように,移動体コースを走行することで撮影しなければならない路面の領域であって,撮影装置20の撮影範囲から任意の幅で設定する。ここで理想的にはコースの横断方向の位置情報とレーンの領域の横断方向の中心の位置情報とは一致する。そこで,コースの横断方向の位置情報に対応する位置を撮影画像情報から特定し,そこから横断方向に所定の幅(たとえば横断方向の中心から左右に100cmずつ)の位置にレーン線Lを設定し,レーンの領域とする。マージン領域とは,移動体の走行に際してレーンの横断方向への揺らぎを考慮してレーン領域の左右両方またはいずれか一方の外側に設けた一定の幅(たとえばレーン線Lから20cm外側)の領域である。したがってマージン領域は,隣接するレーンのレーン領域の内側となる。図14に,撮影画像情報においてレーン線Lと,マージン線Mとを特定し表示した状態を示す。ここではレーン領域の外側にマージン領域を設ける構成としたが,レーン領域の内側にマージン領域を設けるようにしてもよい。その場合には,以下の処理において,レーン線Lとマージン線Mとはそれぞれ逆に読み替えることとなる。 Therefore, the image information processing unit 10 sets a lane line L indicating a lane area and a margin line M indicating a margin area for the captured image information. As described above, the lane area is the area of the road surface that must be photographed by traveling on the moving body course, and is set to an arbitrary width from the photographing range of the photographing device 20. Here, ideally, the position information in the crossing direction of the course and the position information of the center in the crossing direction of the area of the lane match. Therefore, the position corresponding to the position information in the crossing direction of the course is specified from the photographed image information, and the lane line L is set at a position having a predetermined width (for example, 100 cm to the left and right from the center of the crossing direction) in the crossing direction. , The area of the lane. The margin area is an area of a certain width (for example, 20 cm outside the lane line L) provided on the outside of both the left and right sides of the lane area or one of them in consideration of fluctuations in the transverse direction of the lane when the moving body travels. is there. Therefore, the margin area is inside the lane area of the adjacent lane. FIG. 14 shows a state in which the lane line L and the margin line M are specified and displayed in the captured image information. Here, the margin area is provided outside the lane area, but the margin area may be provided inside the lane area. In that case, in the following processing, the lane line L and the margin line M are read in reverse.

マージン領域の幅は,移動体の走行の精度で定める。たとえば移動体を自動走行している場合には,自動走行における左右方向へのずれに応じた精度,投影装置30による走行ガイドを基準として人が移動体を運転する場合であれば,その人の技量に応じた精度などに基づいて,任意に設定する。撮影装置20によって撮影する範囲の幅は,少なくとも,レーン領域とする幅に対して,左右のマージン幅を加算したものとなる。撮影装置20によって撮影する範囲の幅が定まっている場合には,撮影範囲の幅からマージン幅として設定した幅を除いた幅がレーン領域の幅とすることができる。レーン領域の幅が200cm,マージン幅として左右に20cmずつとする場合には,撮影装置20によって撮影する幅は240cm以上とする。 The width of the margin area is determined by the running accuracy of the moving body. For example, when the moving body is automatically driven, if the person drives the moving body based on the accuracy according to the deviation in the left-right direction in the automatic running and the traveling guide by the projection device 30, the person's Set arbitrarily based on the accuracy according to the skill. The width of the range to be photographed by the photographing apparatus 20 is at least the width of the lane area plus the left and right margin widths. When the width of the shooting range is determined by the shooting device 20, the width of the lane region can be the width obtained by subtracting the width set as the margin width from the width of the shooting range. When the width of the lane area is 200 cm and the margin width is 20 cm on each side, the width taken by the photographing device 20 is 240 cm or more.

画像情報処理部10は,マージン線Mよりも外側の画像情報の領域はトリミングをし,マージン線Mよりも内側であって,撮影ができていない領域に対しては,黒塗りするなどの所定の画像処理を加えて,詳細画像情報として画像情報記憶部12に記憶させる。図15に詳細画像情報の一例を示す。図15(a)は移動体がコース1を走行することで撮影したレーン1の撮影画像情報に基づくレーン1の詳細画像情報であり,図15(b)は移動体がコース2を走行することで撮影したレーン2の撮影画像情報に基づくレーン2の詳細画像情報である。また,画像情報処理部10は,レーン線Lよりも外側の画像情報の領域はトリミングをして,広域画像情報として画像情報記憶部12に記憶させる。図16に広域画像情報の一例を示す。図16(a)は移動体がコース1を走行することで撮影したレーン1の撮影画像情報に基づくレーン1の広域画像情報であり,図16(b)は移動体がコース2を走行することで撮影したレーン2の撮影画像情報に基づくレーン2の広域画像情報である。 The image information processing unit 10 trims the image information area outside the margin line M, and blackens the area inside the margin line M that cannot be photographed. The image processing of the above is added, and the image information storage unit 12 stores the detailed image information. FIG. 15 shows an example of detailed image information. FIG. 15 (a) shows detailed image information of lane 1 based on the captured image information of lane 1 taken by the moving body traveling on the course 1, and FIG. 15 (b) shows the moving body traveling on the course 2. This is detailed image information of the lane 2 based on the photographed image information of the lane 2 photographed in. Further, the image information processing unit 10 trims the area of the image information outside the lane line L and stores it in the image information storage unit 12 as wide area image information. FIG. 16 shows an example of wide area image information. FIG. 16A shows wide area image information of lane 1 based on the photographed image information of lane 1 taken by the moving body traveling on the course 1, and FIG. 16B shows the moving object traveling on the course 2. It is the wide area image information of the lane 2 based on the photographed image information of the lane 2 photographed in.

位置情報処理部11は,移動体搭載装置2の記録装置23に記録した位置情報および時刻情報を取得し,位置情報計測装置21で計測した位置情報を,撮影装置20(撮影画像装置が複数ある場合には,撮影画像情報を撮影した撮影装置20)の位置情報に補正する。位置情報の補正は,位置情報処理部11で取得した位置情報について,補正対象とする撮影装置20と位置情報計測装置21との位置のずれ量(撮影装置20と位置情報計測装置21とが離れている距離を示す横方向のオフセット)から補正する。これを模式的に示すのが図17である。 The position information processing unit 11 acquires the position information and the time information recorded in the recording device 23 of the mobile body mounting device 2, and obtains the position information measured by the position information measuring device 21 in the photographing device 20 (there are a plurality of captured image devices). In this case, the captured image information is corrected to the position information of the photographing device 20). The position information is corrected by the amount of positional deviation between the photographing device 20 and the position information measuring device 21 (the photographing device 20 and the position information measuring device 21 are separated from each other) with respect to the position information acquired by the position information processing unit 11. Correct from the horizontal offset that indicates the distance. This is schematically shown in FIG.

なお,画像情報処理部10において,撮影装置20が複数ある場合に,撮影装置20のそれぞれで撮影した撮影画像情報の共通の撮影範囲のみをトリミングしている場合,得られた画像情報の中央は,撮影装置20a,20bの中央線と一致することから,位置情報処理部11の補正処理を実行しなくてもよい。 When the image information processing unit 10 has a plurality of photographing devices 20 and trimming only the common shooting range of the captured image information photographed by each of the photographing devices 20, the center of the obtained image information is Since it coincides with the center line of the photographing devices 20a and 20b, it is not necessary to execute the correction process of the position information processing unit 11.

画像情報記憶部12は,撮影画像情報,広域画像情報,詳細画像情報などの画像情報を記憶する。これらの画像情報は,それぞれ位置情報と対応づけられている。 The image information storage unit 12 stores image information such as captured image information, wide area image information, and detailed image information. Each of these image information is associated with the position information.

表示処理部13は,画像情報記憶部12に記憶した画像情報に基づいて表示処理を実行する。表示処理部13は,画像情報記憶部12に記憶した画像情報に基づいて,撮影対象とした路面をコースごとに並べて表示を行う。この際の表示処理としては,撮影対象とした路面を詳細に表示する詳細表示処理と,詳細表示よりも広域の範囲を表示する広域表示処理とを行う。 The display processing unit 13 executes the display processing based on the image information stored in the image information storage unit 12. The display processing unit 13 displays the road surfaces to be photographed side by side for each course based on the image information stored in the image information storage unit 12. At this time, as the display processing, a detailed display processing for displaying the road surface to be photographed in detail and a wide area display processing for displaying a wider range than the detailed display are performed.

詳細表示処理は,撮影画像情報のうちマージン領域の外側をトリミングした画像情報である詳細画像情報をコースごとに並べて表示をする表示処理である。詳細表示処理をした場合の一例を図18に示す。図18に示すように,詳細画像情報をコースごとに並べて表示をする場合には,各コースを走行することで撮影した各レーンの撮影画像情報に基づく詳細画像情報は,マージン線Mを各コースの区切り線として並置して表示される。そのため,コースを区別する線がマージン線Mとなり,その内側にある線がレーン線Lとなる。なお,図18では詳細画像情報をコースごとに隣接させて表示しているが,隣接させていなくてもよい。 The detailed display processing is a display processing in which detailed image information, which is image information obtained by trimming the outside of the margin area of the captured image information, is displayed side by side for each course. FIG. 18 shows an example of the detailed display processing. As shown in FIG. 18, when the detailed image information is displayed side by side for each course, the detailed image information based on the captured image information of each lane captured by running each course has a margin line M for each course. It is displayed side by side as a dividing line. Therefore, the line that distinguishes the courses is the margin line M, and the line inside the margin line L is the lane line L. Although detailed image information is displayed adjacent to each course in FIG. 18, it does not have to be adjacent to each other.

また広域表示処理は,撮影画像情報のうちレーン領域の外側をトリミングした画像情報である広域画像情報をコースごとに並べて表示をする表示処理である。広域表示処理をした場合の一例を図19に示す。図19に示すように,広域画像情報をコースごとに並べて表示をする場合には,各コースを走行することで撮影した各レーンの撮影画像情報に基づく広域画像情報は,レーン線Lを各コースの区切り線として並置して表示される。そのため,コースを区別する線がレーン線Lとなり,マージン領域およびマージン領域の画像情報は表示されない。図19では広域画像情報をコースごとに隣接させて表示しているが,隣接させていなくてもよい。 The wide area display process is a display process in which the wide area image information, which is the image information obtained by trimming the outside of the lane area of the captured image information, is displayed side by side for each course. FIG. 19 shows an example in the case of wide area display processing. As shown in FIG. 19, when the wide area image information is displayed side by side for each course, the wide area image information based on the captured image information of each lane captured by traveling on each course is on the lane line L for each course. It is displayed side by side as a dividing line. Therefore, the line that distinguishes the courses is the lane line L, and the margin area and the image information of the margin area are not displayed. In FIG. 19, wide area image information is displayed adjacent to each course, but it does not have to be adjacent.

たとえば幅60メートルの滑走路があり,それを幅2メートルのコースで分割した場合,60個のコースに分割される。そしてマージン幅を20cmとした場合,レーン幅は2メートルとなるので,撮影装置20では少なくとも240cm(=200cm+20cm+20cm)で撮影をすることとなる。そして詳細表示処理の際には,240cm幅の詳細画像情報をコース順に並べて表示をする。また広域表示処理の際には,200cm幅の広域画像情報をコース順に並べて表示をする。 For example, if there is a runway with a width of 60 meters and it is divided into courses with a width of 2 meters, it will be divided into 60 courses. When the margin width is 20 cm, the lane width is 2 meters, so that the photographing device 20 shoots at least 240 cm (= 200 cm + 20 cm + 20 cm). Then, in the detailed display processing, detailed image information having a width of 240 cm is displayed in the order of the course. In the wide area display processing, 200 cm wide wide area image information is displayed in the order of the course.

表示処理部13は,あらかじめ画像情報処理部10において生成され,画像情報記憶部12に記憶した詳細画像情報,広域画像情報に基づいて詳細表示処理,広域表示処理を行う場合を説明したが,あらかじめ画像情報処理部10において詳細画像情報,広域画像情報を生成するのではなく,表示処理の際に,撮影画像情報に基づいて詳細画像情報,広域画像情報を生成して表示してもよい。また詳細画像情報のみをあらかじめ生成して画像情報記憶部12に記憶させておき,広域画像情報は表示処理の際に生成して表示してもよい。 The case where the display processing unit 13 performs the detailed display processing and the wide area display processing based on the detailed image information and the wide area image information generated in the image information processing unit 10 in advance and stored in the image information storage unit 12 has been described in advance. Instead of generating detailed image information and wide area image information in the image information processing unit 10, detailed image information and wide area image information may be generated and displayed based on the captured image information at the time of display processing. Further, only detailed image information may be generated in advance and stored in the image information storage unit 12, and wide area image information may be generated and displayed at the time of display processing.

表示処理部13は,詳細表示と広域表示とを連動させて,あるいは切り替えて表示を行う表示画面を表示させる。図20に詳細表示と広域表示とを連動させて表示を行う表示画面の一例を示す。 The display processing unit 13 displays a display screen in which the detailed display and the wide area display are linked or switched to be displayed. FIG. 20 shows an example of a display screen in which the detailed display and the wide area display are linked and displayed.

図20の表示画面は,撮影対象とした路面(滑走路)の全体を進行方向,横断方向にそれぞれブロック状に分割をして選択可能とした表示領域A,広域表示処理を行う表示領域B,詳細表示処理を行う表示領域C,路面にある凹凸等の異常に関する情報を表示する表示領域Dの4つの表示領域を有する場合を示している。 The display screen of FIG. 20 is a display area A in which the entire road surface (runway) to be photographed is divided into blocks in the traveling direction and the crossing direction so that they can be selected, and a display area B for performing wide area display processing. The case where there are four display areas of a display area C for performing detailed display processing and a display area D for displaying information on an abnormality such as unevenness on the road surface is shown.

表示処理部13は,表示領域Aにおいて,画像情報を表示させたい位置のブロックA1が選択されたことを受け付けると,その位置情報に応じた広域画像情報を画像情報記憶部12から抽出して表示領域Bに表示させる。また,表示領域Bにおいて,詳細に表示をしたい領域B1の選択を受け付けると,選択された領域の中心の位置情報に基づいて,対応する詳細画像情報を画像情報記憶部12から抽出して表示領域Cに表示させる。 When the display processing unit 13 receives that the block A1 at the position where the image information is to be displayed is selected in the display area A, the display processing unit 13 extracts and displays the wide area image information corresponding to the position information from the image information storage unit 12. Display in area B. Further, when the selection of the area B1 to be displayed in detail is received in the display area B, the corresponding detailed image information is extracted from the image information storage unit 12 based on the position information of the center of the selected area and displayed in the display area B. Display on C.

表示領域Bに広域画像情報として表示する一例を図21に示す。また表示領域Cに詳細画像情報として表示する一例を図22に示す。なお,図21および図22は,広域表示処理と広域表示処理とで表示させる領域の相違をわかりやすくするため,ほぼ同じ領域の画像情報をほぼ同じ縮尺率で表示させている場合である。実際には,広域表示処理と詳細表示処理とで異なる縮尺率で表示されてもよい。 FIG. 21 shows an example of displaying wide area image information in the display area B. Further, FIG. 22 shows an example of displaying detailed image information in the display area C. Note that FIGS. 21 and 22 show a case where image information in substantially the same area is displayed at substantially the same scale in order to make it easier to understand the difference between the areas to be displayed in the wide area display process and the wide area display process. Actually, the wide area display process and the detailed display process may be displayed at different scales.

表示領域Dに表示される路面の凹凸等の異常に関する情報としては,それぞれの異常に対して,異常の種類(ひび割れなど),大きさ,位置情報などが対応づけられているので,表示処理部13は,選択された異常の位置情報に基づいて,対応する位置にある広域画像情報,詳細画像情報をそれぞれ画像情報記憶部12から抽出し,広域画像情報は領域Bに,詳細画像情報は領域Cにそれぞれ表示させる。 As information on abnormalities such as road surface irregularities displayed in the display area D, the type (crack, etc.), size, position information, etc. of the abnormality are associated with each abnormality, so that the display processing unit 13 extracts wide area image information and detailed image information at corresponding positions from the image information storage unit 12 based on the position information of the selected abnormality, and the wide area image information is in the area B and the detailed image information is in the area. Display each on C.

つぎに本発明の画像処理システム1の処理プロセスの一例を図3乃至図5のフローチャートを用いて説明する。なお,以下の説明では移動体として車両Cの場合,撮影対象として滑走路の路面の場合を説明するが,それぞれ上記に限定するものではなく,移動体としては車両Cのほか,ドローンなどの飛翔体であってもよいし,撮影対象も滑走路の路面のほか,道路の路面など,ほかの対象物であってもよい。 Next, an example of the processing process of the image processing system 1 of the present invention will be described with reference to the flowcharts of FIGS. 3 to 5. In the following description, the case of vehicle C as a moving body and the case of the road surface of the runway as a shooting target will be described, but the above are not limited to each, and the moving body is not limited to vehicle C, but also flying a drone or the like. It may be a body, and the object to be photographed may be another object such as the road surface of the runway or the road surface.

本発明の画像処理システム1で処理対象とする画像情報を撮影するため,車両Cの後方に移動体搭載装置2を取り付ける。そして撮影対象とする滑走路を車両Cで走行する。滑走路を車両Cで走行する際には,管理システム(図示せず)が車両Cの前方上方に設置した投影装置30から走行ガイドを路面に投影し,そのコースに従って走行をし,移動体搭載装置2で路面の撮影を行う。 In order to capture the image information to be processed by the image processing system 1 of the present invention, the moving body mounting device 2 is attached to the rear of the vehicle C. Then, the vehicle C travels on the runway to be photographed. When traveling on the runway with vehicle C, a management system (not shown) projects a traveling guide onto the road surface from a projection device 30 installed in front of and above vehicle C, travels according to the course, and is mounted on a moving body. The road surface is photographed by the device 2.

滑走路を走行する際には,移動体搭載装置2における位置情報計測装置21は,定期的に(たとえば1秒間に10回,20回),位置情報と時刻情報を取得する。取得した位置情報と時刻情報は,対応づけて記録装置23に記録する。また,各撮影装置20は,車両Cが所定の撮影単位,たとえば1mm移動することを距離計で計測すると,滑走路の路面を撮影する。各撮影装置20で撮影した各撮影画像情報にはその相対時間,または位置情報計測装置21で計時した時刻情報と相対時間を用いて算出される時刻情報とを対応づけて記録装置23に記録する。なお,移動体搭載装置2には2台以上の撮影装置20a,bがある場合,同期装置22により各撮影装置20a,bを同期して撮影を行うとともに,どの撮影装置20による撮影画像情報であるのか,撮影装置20ごとに識別可能とする。これは撮影した撮影画像情報に撮影装置20の識別情報が付されていてもよいし,撮影画像情報を保存するフォルダが撮影装置20ごとに分かれていてもよい。 When traveling on the runway, the position information measuring device 21 in the mobile body mounting device 2 periodically (for example, 10 times or 20 times per second) acquires position information and time information. The acquired position information and time information are associated and recorded in the recording device 23. Further, each photographing device 20 photographs the road surface of the runway when the distance meter measures that the vehicle C moves in a predetermined photographing unit, for example, 1 mm. Each photographed image information photographed by each photographing device 20 is recorded in the recording device 23 in association with the relative time or the time information measured by the position information measuring device 21 and the time information calculated using the relative time. .. When the mobile body-mounted device 2 has two or more photographing devices 20a and b, the synchronization device 22 synchronizes the photographing devices 20a and b with each other, and the image information captured by which photographing device 20 is used. Whether it exists or not, it is possible to identify each imaging device 20. This may be that the identification information of the photographing device 20 is attached to the photographed image information, or the folders for storing the photographed image information may be divided for each photographing device 20.

以上のように,車両Cが滑走路を走行することで撮影した滑走路の路面の撮影画像情報と相対時間または時刻情報,位置情報と時刻情報とが記録装置23に記録される。 As described above, the photographed image information and the relative time or time information, the position information and the time information of the road surface of the runway photographed by the vehicle C traveling on the runway are recorded in the recording device 23.

そして記録装置23に記録された撮影装置20の撮影画像情報と相対時間または時刻情報,位置情報と時刻情報とに基づいて,画像処理システム1が各処理を実行する。画像処理システム1の処理は,バッチ処理でもリアルタイム処理でもよい。記録装置23が車両Cに設けられる場合には,画像処理システム1を構成するコンピュータが記録装置23から有線または無線で情報を取得してもよいし,車両Cの外,たとえばクラウドサーバに設けられる場合には,画像処理システム1を構成するコンピュータが当該クラウドサーバから情報を取得してもよい。 Then, the image processing system 1 executes each process based on the photographed image information of the photographing apparatus 20 recorded in the recording apparatus 23 and the relative time or time information, and the position information and the time information. The processing of the image processing system 1 may be batch processing or real-time processing. When the recording device 23 is provided in the vehicle C, the computer constituting the image processing system 1 may acquire information from the recording device 23 by wire or wirelessly, or is provided outside the vehicle C, for example, in a cloud server. In this case, the computer constituting the image processing system 1 may acquire information from the cloud server.

まず画像情報処理部10は,移動体搭載装置2の記録装置23に記録した撮影画像情報を取得する(S100)。そして取得した撮影画像情報とその相対時間または時刻情報とを対応づける。また画像情報処理部10は,撮影装置20で撮影した撮影画像情報を時系列的につなげる。これによって,滑走路を連続的に撮影した撮影画像情報が生成できる。 First, the image information processing unit 10 acquires the captured image information recorded in the recording device 23 of the mobile body mounting device 2 (S100). Then, the acquired photographed image information is associated with the relative time or time information. Further, the image information processing unit 10 connects the captured image information captured by the photographing device 20 in chronological order. As a result, it is possible to generate photographed image information in which the runway is continuously photographed.

位置情報処理部11は,移動体搭載装置2の記録装置23から位置情報および時刻情報を取得し(S110),位置情報処理部11が,位置情報計測装置21で計測した位置情報を,可視光画像情報に用いた撮影装置20の位置情報に補正をする。以後の処理で用いる位置情報は,補正後の位置情報(撮影装置20の位置情報)となる。 The position information processing unit 11 acquires position information and time information from the recording device 23 of the mobile body mounting device 2 (S110), and the position information processing unit 11 obtains the position information measured by the position information measuring device 21 in visible light. The position information of the photographing device 20 used for the image information is corrected. The position information used in the subsequent processing is the corrected position information (position information of the photographing device 20).

そして画像情報処理部10は,時系列的に並べた撮影画像情報に,位置情報処理部11で補正した位置情報と時刻情報とを対応づけて,画像情報処理部10による撮影画像情報の伸縮処理,剪断変形処理を行う各補正処理を実行する。なお,補正処理はその一部または全部を行わなくてもよい。 Then, the image information processing unit 10 associates the photographed image information arranged in chronological order with the position information corrected by the position information processing unit 11 and the time information, and the image information processing unit 10 expands and contracts the photographed image information. , Performs shear deformation processing Performs each correction processing. It is not necessary to perform the correction process in part or in whole.

まず,位置情報計測装置21で取得した時刻情報と,撮影画像情報ごとの相対時間に基づいて時刻情報を算出する。そして,各撮影画像情報の終端位置を,位置情報計測装置21で取得した時刻情報と位置情報とを用いて比例配分することで算出する。なお,撮影画像情報の終端位置は,隣接する撮影画像情報の始端位置として用いることができる。このように算出した撮影画像情報の始端位置と終端位置との進行方向の位置情報の差に基づく距離と,所定単位の枚数分と撮影幅とに基づく撮影画像情報の距離とを比較することで,撮影画像情報の伸縮比率を算出し,伸縮を行う。 First, the time information is calculated based on the time information acquired by the position information measuring device 21 and the relative time for each captured image information. Then, the terminal position of each captured image information is calculated by proportionally distributing the time information acquired by the position information measuring device 21 and the position information. The end position of the captured image information can be used as the start position of the adjacent captured image information. By comparing the distance based on the difference in the position information in the traveling direction between the start position and the end position of the captured image information calculated in this way and the distance of the captured image information based on the number of sheets of a predetermined unit and the shooting width. , Calculate the expansion / contraction ratio of the captured image information and perform expansion / contraction.

また,撮影画像情報の始端位置と終端位置との進行方向に対する横方向の位置情報の差に基づく距離に基づいて撮影画像情報の剪断変形処理を実行する。 In addition, shear deformation processing of the captured image information is executed based on the distance based on the difference in the lateral position information with respect to the traveling direction between the start position and the end position of the captured image information.

以上の処理を実行することで,滑走路の路面を撮影した撮影画像情報と位置情報とを対応づけることができる。 By executing the above processing, it is possible to associate the photographed image information obtained by photographing the road surface of the runway with the position information.

このように補正処理を実行すると,画像情報処理部10は,撮影画像情報において,レーン領域を示すレーン線Lと,マージン領域を示すマージン線Mとを設定する(S120)。そして,詳細画像情報と広域画像情報とを生成する(S130)。 When the correction process is executed in this way, the image information processing unit 10 sets the lane line L indicating the lane area and the margin line M indicating the margin area in the captured image information (S120). Then, detailed image information and wide area image information are generated (S130).

まず画像処理部は,マージン線Mよりも外側の画像情報の領域はトリミングをし(S200),マージン線Mよりも内側であって,撮影ができていない領域に対しては,黒塗りするなどの所定の画像処理を加えて(S210),詳細画像情報として画像情報記憶部12に記憶させる(S220)。また画像処理部は,レーン線Lよりも外側の領域をトリミングをして(S300),広域画像情報として画像情報記憶部12に記憶させる(S310)。なお,レーン領域はマージン領域よりも内側であるので,撮影ができていない領域がないことがほとんどとなるが,何らかの障害により撮影ができていない領域があった場合には,マージン領域と同様に,黒塗りをするなどの所定の画像処理を加えてもよい。 First, the image processing unit trims the image information area outside the margin line M (S200), and blackens the area inside the margin line M that cannot be photographed. (S210), the image information storage unit 12 stores the detailed image information as detailed image information (S220). Further, the image processing unit trims a region outside the lane line L (S300) and stores it in the image information storage unit 12 as wide area image information (S310). Since the lane area is inside the margin area, there is almost no area that cannot be photographed. However, if there is an area that cannot be photographed due to some obstacle, the same as the margin area. , Predetermined image processing such as blackening may be added.

このように広域画像情報,詳細画像情報を画像情報記憶部12に記憶させたあと,撮影した滑走路の路面の画像情報を確認したい場合には,所定の操作が行われることで,表示処理部13が,図20に示すような表示画面を表示させる(S140)。 After storing the wide area image information and the detailed image information in the image information storage unit 12 in this way, if it is desired to check the image information of the road surface of the runway taken, the display processing unit is performed by performing a predetermined operation. 13 displays a display screen as shown in FIG. 20 (S140).

そして表示画面の表示領域Aにおいて,表示させる位置の選択を受け付けると,表示処理部13は,その位置情報に対応する広域画像情報を画像情報記憶部12から抽出して表示領域Bに表示する。また,広域画像情報から詳細な画像情報の領域B1の選択を受け付けると,その位置情報に対応する詳細画像情報を画像情報記憶部12から抽出して表示領域Cに表示する。 Then, when the display area A of the display screen receives the selection of the position to be displayed, the display processing unit 13 extracts the wide area image information corresponding to the position information from the image information storage unit 12 and displays it in the display area B. Further, when the selection of the detailed image information area B1 is received from the wide area image information, the detailed image information corresponding to the position information is extracted from the image information storage unit 12 and displayed in the display area C.

具体的には表示処理部13は,位置情報に対応する広域画像情報を画像情報記憶部12から抽出し,レーン線Lがコースの区切りを示す線となるように,隣り合うコースごとに,各コースに対応するレーンの広域画像情報を表示領域Bに表示させる。また表示処理部13は,位置情報に対応する詳細画像情報を画像情報記憶部12から抽出し,マージン線Mがコースの区切りを示す線となるように,隣り合うコースごとに各コースに対応するレーンの詳細画像情報を表示領域Cに表示させる。表示領域Cに詳細画像情報を表示する際には,マージン線Mとレーン線Lとが区別可能なように,異なる色,線種別(直線,破線,一点鎖線,二点鎖線など),異なる太さなどで表示をすることが好ましい。またマージン線Mとレーン線Lとを区別するほか,マージン領域とレーン領域とが区別可能になっているとよい。たとえばマージン領域とレーン領域を異なる色で表示する,マージン領域とレーン領域であることを表示させる,マークを付するなどがある。 Specifically, the display processing unit 13 extracts wide area image information corresponding to the position information from the image information storage unit 12, and for each adjacent course, the lane line L becomes a line indicating the course delimiter. The wide area image information of the lane corresponding to the course is displayed in the display area B. Further, the display processing unit 13 extracts detailed image information corresponding to the position information from the image information storage unit 12, and corresponds to each course for each adjacent course so that the margin line M becomes a line indicating the course division. The detailed image information of the lane is displayed in the display area C. When displaying detailed image information in the display area C, different colors, line types (straight line, broken line, one-dot chain line, two-dot chain line, etc.) and different thicknesses are used so that the margin line M and the lane line L can be distinguished. It is preferable to display with a margin. In addition to distinguishing between the margin line M and the lane line L, it is preferable that the margin area and the lane area can be distinguished. For example, the margin area and the lane area are displayed in different colors, the margin area and the lane area are displayed, and a mark is added.

これによって,広い範囲を確認したい場合には広域画像情報を,詳細に確認をしたい場合には詳細画像情報を確認することができる。とくに詳細画像情報においてはマージン線Mがコースの区切りとなっているので,マージン領域が重畳して表示される。そのためコースの区切りにある凹凸などの異常を見落とすことがない。また隣り合うコースの画像情報同士の合成処理も不要なので,処理時間を要することなく,また簡便な処理で画像情報の表示を実現することができる。 As a result, wide area image information can be confirmed when a wide range is to be confirmed, and detailed image information can be confirmed when a detailed confirmation is desired. In particular, in the detailed image information, since the margin line M is the course delimiter, the margin areas are superimposed and displayed. Therefore, abnormalities such as unevenness at the break of the course will not be overlooked. In addition, since it is not necessary to combine the image information of adjacent courses, it is possible to display the image information by simple processing without requiring processing time.

路面には直線箇所のみならず,湾曲箇所もある。たとえば空港の場合,飛行機は駐機場から滑走路まで移動する際に,誘導路を移動する。そこで本実施例においては,湾曲箇所がある路面の場合における画面表示を行う場合を説明する。湾曲箇所がある場合のコースの一例を図23に示す。 There are not only straight points but also curved points on the road surface. For example, in the case of an airport, an airplane travels on a taxiway as it travels from the parking lot to the runway. Therefore, in this embodiment, the case of displaying the screen in the case of a road surface having a curved portion will be described. FIG. 23 shows an example of the course when there is a curved portion.

誘導路などの路面にはセンターライン(中央線など,路面を一定の幅で区切る線)およびキロポスト(距離を示す標識)が設定されている。そこで,移動体が走行するコースを,センターラインに対して直角方向に一定距離だけ離れた曲線を描くように設定する。なお曲線は折れ線であってもよい。 A center line (a line that divides the road surface with a certain width, such as the Chuo Line) and a kilometer post (a sign indicating the distance) are set on the road surface such as a taxiway. Therefore, the course on which the moving body travels is set so as to draw a curve separated by a certain distance in the direction perpendicular to the center line. The curve may be a polygonal line.

このように設定されたコースに沿って,実施例1と同様に移動体が移動し,移動体搭載装置2によって路面を撮影をする。この場合,移動体搭載装置2は移動体の横断方向に知って路面を撮影するので,各コースに対応するレーンの撮影画像情報は,長い長方形となる。なお,厳密には湾曲部を走行すると移動体の左右の間で距離の歪みが発生するが,誘導路や道路の回転半径は十分に大きいことが一般的であるので,撮影画像情報の局所的な歪みは問題とはならない。 The moving body moves along the course set in this way in the same manner as in the first embodiment, and the road surface is photographed by the moving body mounting device 2. In this case, since the moving body mounting device 2 takes a picture of the road surface by knowing the crossing direction of the moving body, the photographed image information of the lane corresponding to each course is a long rectangle. Strictly speaking, when traveling on a curved part, the distance is distorted between the left and right sides of the moving body, but since the radius of gyration of taxiways and roads is generally sufficiently large, the captured image information is locally localized. Distortion is not a problem.

しかし,湾曲部分の内側のコースと,外側のコースを走行した場合では,撮影距離の差が生じるので,コースに対応するレーンの撮影画像情報の長さが変わる。そこで本実施例においては,表示処理部13が実距離表示モードとキロポスト表示モードの2つの表示方法を切り替え可能として表示することで,対応する。 However, when traveling on the inner course of the curved portion and the outer course, there is a difference in the shooting distance, so that the length of the shot image information of the lane corresponding to the course changes. Therefore, in this embodiment, the display processing unit 13 displays the two display methods, that is, the actual distance display mode and the kilometer post display mode, as switchable.

実距離表示モードは,画像情報記憶部12に記憶した画像情報を,キロポスト(単位距離)間の撮影画像情報の長さが一定となるような伸縮処理を行わずに,そのまま実施例1と同様に並べる方式である。実距離表示モードを模式的に示すのが図24である。図24では右側が始点,左側が終点となっているが,左右逆,あるいは上下方向の表示をしても良い。実距離表示モードは,実際の走行距離で表示されているので,撮影画像情報を表示画面で表示する場合,凹凸などの異常を実際のサイズと同様の大きさで確認することができる。 In the actual distance display mode, the image information stored in the image information storage unit 12 is not subjected to expansion / contraction processing so that the length of the captured image information between kiloposts (unit distance) becomes constant, and is the same as in the first embodiment. It is a method of arranging in. FIG. 24 schematically shows the actual distance display mode. In FIG. 24, the right side is the start point and the left side is the end point, but left-right reverse or vertical direction may be displayed. Since the actual distance display mode is displayed based on the actual mileage, when the captured image information is displayed on the display screen, abnormalities such as unevenness can be confirmed in the same size as the actual size.

実距離表示モードでは,画像情報のサイズが伸縮されていないので,湾曲部分の内側のコース,外側のコースのいずれの画像情報であっても,実際のサイズに近い。そのため,凹凸などの異常があったとしても画像情報から計測して誤差が少ない利点がある。 In the actual distance display mode, the size of the image information is not expanded or contracted, so the image information of either the inner course or the outer course of the curved portion is close to the actual size. Therefore, even if there is an abnormality such as unevenness, there is an advantage that there is little error measured from the image information.

表示処理部13は,実距離表示モードにおいて,対応する位置関係を明らかにするため,各撮影画像情報に対応づけられた位置情報を用いて,同一キロポスト(単位距離)の位置に線を重畳表示するなどするとよい。これによって,同一キロポストの位置関係を,容易に認識することができる。 In the actual distance display mode, the display processing unit 13 superimposes a line on the position of the same kilometer post (unit distance) by using the position information associated with each captured image information in order to clarify the corresponding positional relationship. It is good to do it. As a result, the positional relationship of the same kilometer post can be easily recognized.

キロポスト表示モードは,キロポスト(単位距離)間の撮影画像情報の長さが一定となるように,進行方向に伸縮しておき,その画像情報を表示する。この場合,各キロポスト間の拡縮率(たとえばコース1の20〜40mキロポスト間は0.87倍など)をあらかじめ設定しておき,画像処理部においてあらかじめその伸縮率に応じた撮影画像情報を生成しておき,それを画像情報記憶部12に記憶させておく。そして表示処理部13における表示処理の際に,伸縮した撮影画像情報を表示させる。なお,画像処理部において表示させるほか,表示処理部13における表示の際に,撮影画像情報を伸縮してもよい。キロポスト表示モードを模式的に示すのが図25である。 In the kilometer post display mode, the captured image information is expanded and contracted in the traveling direction so that the length of the captured image information between the kilometer posts (unit distance) is constant, and the image information is displayed. In this case, the scaling factor between each kilometer post (for example, 0.87 times between 20 to 40 m kilometer posts in course 1) is set in advance, and the image processing unit generates captured image information according to the expansion / contraction ratio in advance. It is stored in the image information storage unit 12. Then, during the display processing in the display processing unit 13, the expanded / contracted captured image information is displayed. In addition to displaying the image in the image processing unit, the captured image information may be expanded or contracted when the display is displayed in the display processing unit 13. FIG. 25 schematically shows the kilometer post display mode.

キロポスト表示モードでは,コース間の横断方向のずれが少なくなるので,コースを横断して存在する凹凸等の異常の全体像を画像情報から確認する場合には有益である。 In the kilometer post display mode, the deviation in the crossing direction between the courses is reduced, which is useful when confirming the entire image of abnormalities such as unevenness existing across the course from the image information.

このように,表示処理部13は,実距離表示モードとキロポスト表示モードとをアイコンやボタン,プルダウンメニューなどによって,切り替え可能とすることが好ましい。 As described above, it is preferable that the display processing unit 13 can switch between the actual distance display mode and the kilometer post display mode by using an icon, a button, a pull-down menu, or the like.

実施例2の場合においても,それぞれの表示モード(実距離表示モード,キロポスト表示モード)で,実施例1と同様に詳細画像情報,広域画像情報を生成し,詳細表示処理,広域表示処理を表示処理部13が実行してもよい。 Also in the case of the second embodiment, detailed image information and wide area image information are generated in each display mode (actual distance display mode, kilometer post display mode) as in the first embodiment, and detailed display processing and wide area display processing are displayed. The processing unit 13 may execute it.

本発明は,本発明の趣旨を逸脱しない範囲において,適宜,設計変更が可能である。また処理は一例であり,その処理を異なる順番で実行することも可能である。さらに,画面の表示についても適宜,変更可能である。また,すべての機能を備えずとも,一部の機能のみを備えるのであってもよい。 The design of the present invention can be appropriately changed without departing from the spirit of the present invention. The processing is an example, and the processing can be executed in a different order. Furthermore, the screen display can be changed as appropriate. Moreover, even if it does not have all the functions, it may have only some functions.

一つの撮影対象を複数の画像情報に分割して撮影して表示する場合における画像情報同士の合成処理の課題は路面の撮影の場合に限られるものではない。そのため,本発明の画像処理システム1における画像情報処理,表示処理は,路面を撮影した画像情報のみに適用できるのではなく,一つの撮影対象を複数の画像情報に分割して撮影し,表示する場合にも適用することができる。たとえば建築物やトンネル,橋脚などさまざまな撮影対象物の場合に適用可能である。 The problem of the compositing process of image information in the case where one shooting target is divided into a plurality of image information and shot and displayed is not limited to the case of shooting a road surface. Therefore, the image information processing and display processing in the image processing system 1 of the present invention can be applied not only to the image information obtained by photographing the road surface, but also to divide one image object into a plurality of image information and display the image. It can also be applied in cases. For example, it can be applied to various objects to be photographed such as buildings, tunnels, and piers.

本発明の画像処理システム1を用いることで,撮影時に横断方向への揺らぎが生じても,画像情報の抜けが生じない。また,撮影した結果をすぐに目視したい場合には,すぐに確認することができる。 By using the image processing system 1 of the present invention, even if fluctuations occur in the transverse direction during shooting, image information is not lost. Also, if you want to see the result of shooting immediately, you can check it immediately.

1:画像処理システム
2:移動体搭載装置
C:車両
10:画像情報処理部
11:位置情報処理部
12:画像情報記憶部
13:表示処理部
20:撮影装置
21:位置情報計測装置
22:同期装置
23:記録装置
24:照明装置
25:支柱
26:取付ビーム
27:照明支持台
30:投影装置
40:ルーフキャリア
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Image processing system 2: Mobile device mounted device C: Vehicle 10: Image information processing unit 11: Position information processing unit 12: Image information storage unit 13: Display processing unit 20: Imaging device 21: Position information measuring device 22: Synchronization Device 23: Recording device 24: Lighting device 25: Support column 26: Mounting beam 27: Lighting support base 30: Projection device 40: Roof carrier 70: Computing device 71: Storage device 72: Display device 73: Input device 74: Communication device

Claims (15)

湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,を有しており,
前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれており,
前記表示処理部は,
前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う,
ことを特徴とする画像処理システム。
It is an image processing system for the first image information and the second image information obtained by photographing the road surfaces in the adjacent range including the curved portion.
The image processing system is
Based on the first region and the second region specified in the first image information and the second image information, the second region in the first image information is the second image information. It has a display processing unit that displays the first image information and the second image information so as to be located next to.
A part or all of the shooting range of the second region in the first image information is included in a part or all of the shooting range of the first region in the second image information.
The display processing unit
The first display format for displaying the first image information and the second image information, and the first image information and the second image information expanded and contracted so that the length of the image information between unit distances is constant. Perform display processing with the second display format that displays and
An image processing system characterized by this.
撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,を有しており,
前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれる,
ことを特徴とする画像処理システム。
It is an image processing system for the first image information and the second image information obtained by photographing the adjacent range of the object to be photographed.
The image processing system is
Based on the first region and the second region specified in the first image information and the second image information, the second region in the first image information is the second image information. It has a display processing unit that displays the first image information and the second image information so as to be located next to.
A part or all of the shooting range of the second region in the first image information is included in a part or all of the shooting range of the first region in the second image information.
An image processing system characterized by this.
前記表示処理部は,
前記第1の画像情報における第2の領域が,前記第2の画像情報の第2の領域の隣に位置するように,前記第1の画像情報と前記第2の画像情報とを表示する,
ことを特徴とする請求項1または請求項2に記載の画像処理システム。
The display processing unit
The first image information and the second image information are displayed so that the second region in the first image information is located next to the second region in the second image information.
The image processing system according to claim 1 or 2, wherein the image processing system is characterized in that.
前記表示処理部は,さらに,
前記第1の画像情報における第1の領域が,前記第2の画像情報の第1の領域の隣に位置するように,前記第1の画像情報と前記第2の画像情報とを表示する,
ことを特徴とする請求項1から請求項3のいずれかに記載の画像処理システム。
The display processing unit further
The first image information and the second image information are displayed so that the first region in the first image information is located next to the first region of the second image information.
The image processing system according to any one of claims 1 to 3, wherein the image processing system is characterized in that.
前記表示処理部は,さらに,
前記第1の画像情報における第2の領域が,前記第2の画像情報の第2の領域の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示形式と,
前記第1の画像情報における第1の領域が,前記第2の画像情報の第1の領域に隣に位置するように,前記第1の画像情報と前記第2の画像情報とを表示する表示形式とが,切り替え可能である,
ことを特徴とする請求項4に記載の画像処理システム。
The display processing unit further
A display format for displaying the first image information and the second image information so that the second region in the first image information is located next to the second region of the second image information. When,
A display displaying the first image information and the second image information so that the first region in the first image information is located adjacent to the first region of the second image information. The format can be switched,
The image processing system according to claim 4, wherein the image processing system is characterized by the above.
前記表示処理部は,
前記第1の領域と第2の領域とを区別可能に表示をする,
ことを特徴とする請求項1から請求項5のいずれかに記載の画像処理システム。
The display processing unit
The first area and the second area are displayed so as to be distinguishable.
The image processing system according to any one of claims 1 to 5, wherein the image processing system is characterized in that.
前記表示処理部は,
前記第1の画像情報と前記第2の画像情報とを区別可能に表示をする,
ことを特徴とする請求項1から請求項6のいずれかに記載の画像処理システム。
The display processing unit
The first image information and the second image information are displayed so as to be distinguishable.
The image processing system according to any one of claims 1 to 6, wherein the image processing system is characterized in that.
撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の画像情報と前記第2の画像情報について第1の領域と第2の領域とを特定し,前記第2の領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記第1の領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部と,
画像情報の表示処理を行う表示処理部と,を有しており,
前記表示処理部は,
前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,
前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,
ことを特徴とする画像処理システム。
It is an image processing system for the first image information and the second image information obtained by photographing the adjacent range of the object to be photographed.
The image processing system is
A first region and a second region are specified for the first image information and the second image information, and a region outside the second region is trimmed to generate detailed image information. An image information processing unit that trims an area outside the first area to generate wide-area image information,
It has a display processing unit that performs display processing of image information.
The display processing unit
The detailed image information based on the first image information and the detailed image information based on the second image information are displayed so as to be located next to each other.
The wide area image information based on the first image information and the wide area image information based on the second image information are displayed so as to be located next to each other.
An image processing system characterized by this.
湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理システムであって,
前記画像処理システムは,
前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う表示処理部,
を有することを特徴とする画像処理システム。
It is an image processing system for the first image information and the second image information obtained by photographing the road surfaces in the adjacent range including the curved portion.
The image processing system is
The first display format for displaying the first image information and the second image information, and the first image information and the second image information expanded and contracted so that the length of the image information between unit distances is constant. Display processing unit that performs display processing with the second display format that displays
An image processing system characterized by having.
前記表示処理部は,
前記第1の表示形式において,対応する単位距離の位置関係が特定可能に表示する,
ことを特徴とする請求項1または請求項9に記載の画像処理システム。
The display processing unit
In the first display format, the positional relationship of the corresponding unit distance is displayed so as to be identifiable.
The image processing system according to claim 1 or 9.
前記表示処理部は,
前記第1の表示形式と,前記第2の表示形式とが切り替え可能である,
ことを特徴とする請求項1,請求項9または請求項10に記載の画像処理システム。
The display processing unit
The first display format and the second display format can be switched.
The image processing system according to claim 1, claim 9, or claim 10.
湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,として機能させ,
前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれており,
前記表示処理部は,
前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う,
ことを特徴とする画像処理プログラム。
This is an image processing program for the first image information and the second image information obtained by photographing the road surfaces in the adjacent range including the curved portion.
The image processing program uses a computer.
Based on the first region and the second region specified in the first image information and the second image information, the second region in the first image information is the second image information. It is made to function as a display processing unit that displays the first image information and the second image information so as to be located next to.
A part or all of the shooting range of the second region in the first image information is included in a part or all of the shooting range of the first region in the second image information.
The display processing unit
The first display format for displaying the first image information and the second image information, and the first image information and the second image information expanded and contracted so that the length of the image information between unit distances is constant. Perform display processing with the second display format that displays and
An image processing program characterized by this.
撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の画像情報と前記第2の画像情報とにおいて特定された第1の領域と第2の領域に基づいて,前記第1の画像情報における第2の領域が,前記第2の画像情報の隣に位置するように前記第1の画像情報と前記第2の画像情報とを表示する表示処理部,として機能させ,
前記第1の画像情報における第2の領域の撮影範囲の一部または全部は,前記第2の画像情報における第1の領域の撮影範囲の一部または全部に含まれる,
ことを特徴とする画像処理プログラム。
It is an image processing program for the first image information and the second image information obtained by photographing the adjacent range of the object to be photographed.
The image processing program uses a computer.
Based on the first region and the second region specified in the first image information and the second image information, the second region in the first image information is the second image information. It is made to function as a display processing unit that displays the first image information and the second image information so as to be located next to.
A part or all of the shooting range of the second region in the first image information is included in a part or all of the shooting range of the first region in the second image information.
An image processing program characterized by this.
撮影対象物の隣り合う範囲を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の画像情報と前記第2の画像情報について第1の領域と第2の領域とを特定し,前記第2の領域よりも外側の領域をトリミングして詳細画像情報を生成し,前記第1の領域よりも外側の領域をトリミングして広域画像情報を生成する画像情報処理部,
画像情報の表示処理を行う表示処理部,として機能させ,
前記表示処理部は,
前記第1の画像情報に基づく前記詳細画像情報と前記第2の画像情報に基づく前記詳細画像情報とが隣に位置するように表示し,
前記第1の画像情報に基づく前記広域画像情報と前記第2の画像情報に基づく前記広域画像情報とが隣に位置するように表示する,
ことを特徴とする画像処理プログラム。
It is an image processing program for the first image information and the second image information obtained by photographing the adjacent range of the object to be photographed.
The image processing program uses a computer.
A first region and a second region are specified for the first image information and the second image information, and a region outside the second region is trimmed to generate detailed image information. Image information processing unit that trims the area outside the first area to generate wide area image information,
It functions as a display processing unit that performs image information display processing.
The display processing unit
The detailed image information based on the first image information and the detailed image information based on the second image information are displayed so as to be located next to each other.
The wide area image information based on the first image information and the wide area image information based on the second image information are displayed so as to be located next to each other.
An image processing program characterized by this.
湾曲箇所を含む隣り合う範囲の路面を撮影した第1の画像情報と第2の画像情報に対する画像処理プログラムであって,
前記画像処理プログラムは,コンピュータを,
前記第1の画像情報と第2の画像情報を表示する第1の表示形式と,単位距離間の画像情報の長さが一定となるように伸縮した第1の画像情報と第2の画像情報とを表示する第2の表示形式とで表示処理を行う表示処理部,
として機能させることを特徴とする画像処理プログラム。
This is an image processing program for the first image information and the second image information obtained by photographing the road surfaces in the adjacent range including the curved portion.
The image processing program uses a computer.
The first display format for displaying the first image information and the second image information, and the first image information and the second image information expanded and contracted so that the length of the image information between unit distances is constant. Display processing unit that performs display processing with the second display format that displays
An image processing program characterized by functioning as.
JP2019138832A 2019-07-29 2019-07-29 Image processing system Active JP7317299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019138832A JP7317299B2 (en) 2019-07-29 2019-07-29 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138832A JP7317299B2 (en) 2019-07-29 2019-07-29 Image processing system

Publications (2)

Publication Number Publication Date
JP2021022210A true JP2021022210A (en) 2021-02-18
JP7317299B2 JP7317299B2 (en) 2023-07-31

Family

ID=74574278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138832A Active JP7317299B2 (en) 2019-07-29 2019-07-29 Image processing system

Country Status (1)

Country Link
JP (1) JP7317299B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043466A (en) * 2005-08-03 2007-02-15 Mitsubishi Electric Corp Image synthesizing apparatus and multi-camera monitoring system
JP2012105145A (en) * 2010-11-11 2012-05-31 Canon Inc Image processing apparatus, image processing method, and program
JP2017090189A (en) * 2015-11-09 2017-05-25 株式会社ソーシャル・キャピタル・デザイン Travelling guide system
JP2017181393A (en) * 2016-03-31 2017-10-05 倉敷紡績株式会社 Navigation device and navigation method
JP2019106075A (en) * 2017-12-13 2019-06-27 三菱重工業株式会社 Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043466A (en) * 2005-08-03 2007-02-15 Mitsubishi Electric Corp Image synthesizing apparatus and multi-camera monitoring system
JP2012105145A (en) * 2010-11-11 2012-05-31 Canon Inc Image processing apparatus, image processing method, and program
JP2017090189A (en) * 2015-11-09 2017-05-25 株式会社ソーシャル・キャピタル・デザイン Travelling guide system
JP2017181393A (en) * 2016-03-31 2017-10-05 倉敷紡績株式会社 Navigation device and navigation method
JP2019106075A (en) * 2017-12-13 2019-06-27 三菱重工業株式会社 Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program

Also Published As

Publication number Publication date
JP7317299B2 (en) 2023-07-31

Similar Documents

Publication Publication Date Title
JP5714940B2 (en) Moving body position measuring device
US8239131B2 (en) Navigation device, navigation method, and navigation program
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
JP6381981B2 (en) Track space obstacle detection system
JP2020162142A (en) Stereo support with rolling shutter
US8473201B2 (en) Current position determining device and current position determining method for correcting estimated position based on detected lane change at road branch
KR100815153B1 (en) Apparatus and method for guiding a cross road of car navigation using a camera
JP2007249103A (en) Road image creation system, road image creation method, and road image compositing device
JP2007265277A (en) Visibility range measurement device for vehicle, and driving support device
JP2004045227A (en) Instrument and method for measuring position of vehicle
US20210270625A1 (en) Follow that car
JP2009180631A (en) Navigator, navigation method and program
JP6640146B2 (en) Road marking method
JP7232604B2 (en) NAVIGATION SYSTEM, NAVIGATION DISPLAY METHOD AND NAVIGATION DISPLAY PROGRAM
JP6773473B2 (en) Survey information management device and survey information management method
JP7317299B2 (en) Image processing system
US10859377B2 (en) Method for improving position information associated with a collection of images
JP7304016B2 (en) Image processing system
JP2005178623A (en) Display device for vehicle
JP3488972B2 (en) Current position display device for vehicles
JP2014092935A (en) Preceding vehicle recognition system, preceding vehicle recognition method and preceding vehicle recognition program
WO2023145403A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145402A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145400A1 (en) Traffic flow measurement system and traffic flow measurement method
WO2023145399A1 (en) Traffic flow measurement system and traffic flow measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230707

R150 Certificate of patent or registration of utility model

Ref document number: 7317299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150