JP2012093854A - Road-surface image generation vehicle, road-surface image generation device, and road-surface image generation method - Google Patents

Road-surface image generation vehicle, road-surface image generation device, and road-surface image generation method Download PDF

Info

Publication number
JP2012093854A
JP2012093854A JP2010238994A JP2010238994A JP2012093854A JP 2012093854 A JP2012093854 A JP 2012093854A JP 2010238994 A JP2010238994 A JP 2010238994A JP 2010238994 A JP2010238994 A JP 2010238994A JP 2012093854 A JP2012093854 A JP 2012093854A
Authority
JP
Japan
Prior art keywords
road surface
image
line camera
timing
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010238994A
Other languages
Japanese (ja)
Other versions
JP5613875B2 (en
Inventor
Akira Kuromiya
明 黒宮
Masayoshi Oikawa
正義 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SUNWAY KK
Original Assignee
SUNWAY KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SUNWAY KK filed Critical SUNWAY KK
Priority to JP2010238994A priority Critical patent/JP5613875B2/en
Publication of JP2012093854A publication Critical patent/JP2012093854A/en
Application granted granted Critical
Publication of JP5613875B2 publication Critical patent/JP5613875B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide technique capable of generating images of a road surface along a curve when a vehicle travels along the curve.SOLUTION: A road-surface image generation vehicle 10 includes: road-surface photographing means of photographing a road surface repeatedly; a first line camera 14 which photographs a road surface within a first visual field range 62; a second line camera 16 which photographs a road surface within a second visual field range 60 which intersects the first visual field range; means of photographing the road surfaces by the first line camera and second line camera in first timing, photographing the road surfaces by the first line camera and second line camera in second timing, specifying a matching point between a photographed image of the first line camera in the first timing and a photographed image of the second line camera in the second timing; specifying a matching point of a photographed image of the second line camera in the first timing and a photographed image of the first line camera in the second timing, and arraying images photographed by the road-surface photographing means based upon the first matching point and second matching point.

Description

本発明は、走行する車両から撮影された複数の画像を配列して、路面の連続画像を生成する技術に関する。   The present invention relates to a technique for arranging a plurality of images taken from a traveling vehicle and generating a continuous image of a road surface.

特許文献1に、走行しながら路面を撮影し、撮影した複数の画像を配列して路面の連続画像を生成する装置が開示されている。この路面画像生成装置は、車両の幅方向に長い視野範囲を高精細に撮影するラインカメラを有している。車両がラインカメラの視野範囲の幅(車両の進行方向に沿った距離)だけ進む毎に、ラインカメラで路面を撮影する。ラインカメラで繰り返し撮影することで得られた複数枚の画像を配列することで、ラインカメラで撮影された範囲の路面全体の画像を生成することができる。また、この画像生成装置は、ラインカメラの視野範囲よりも広い視野範囲を撮影するエリアカメラを有している。エリアカメラは、ラインカメラよりも低い頻度で路面を撮影する。エリアカメラの視野範囲の幅(車両の進行方向に沿った距離)よりも短く設定されている所定距離だけ車両が進む毎に、エリアカメラが路面を撮影する。したがって、ある撮影タイミングでエリアカメラが撮影した画像の一部は、その直前の撮影タイミングでエリアカメラが撮影した画像の一部と重複している。この画像生成装置は、エリアカメラで連続して撮影した2つの画像を、これらの重複部分が一致するように配列することで、これらの撮影タイミング間における車両の進行方向の変化量を算出する。そして、算出した車両の進行方向の変化量に基づいてラインカメラで撮影した複数枚の画像を配列することで、ラインカメラで撮影された範囲の路面全体の画像を生成する。このように、ラインカメラで撮影した複数の画像を車両の進行方向の変化を考慮して配列することで、路面がカーブしている場合にはカーブしている路面全体の画像を生成することができる。この技術がないと、カーブしている路面を撮影したにもかかわらず、直線的に伸びている路面画像が生成されてしまう。   Patent Document 1 discloses an apparatus that captures a road surface while traveling and generates a continuous image of a road surface by arranging a plurality of captured images. This road surface image generation device has a line camera that captures a high-definition field of view that is long in the width direction of the vehicle. Each time the vehicle advances by the width of the line camera's visual field range (distance along the traveling direction of the vehicle), the road surface is photographed by the line camera. By arranging a plurality of images obtained by repeatedly photographing with a line camera, it is possible to generate an image of the entire road surface in a range photographed by the line camera. In addition, this image generation apparatus includes an area camera that captures a visual field range wider than the visual field range of the line camera. The area camera captures the road surface less frequently than the line camera. Each time the vehicle travels a predetermined distance set shorter than the width of the field camera viewing range (distance along the traveling direction of the vehicle), the area camera captures the road surface. Therefore, a part of the image captured by the area camera at a certain capturing timing overlaps with a part of the image captured by the area camera at the immediately preceding capturing timing. This image generation apparatus calculates the amount of change in the traveling direction of the vehicle between these image capturing timings by arranging two images captured continuously by the area camera so that their overlapping portions coincide. Then, by arranging a plurality of images photographed by the line camera based on the calculated amount of change in the traveling direction of the vehicle, an image of the entire road surface in the range photographed by the line camera is generated. In this way, by arranging a plurality of images taken by the line camera in consideration of changes in the traveling direction of the vehicle, when the road surface is curved, an image of the entire curved road surface can be generated. it can. Without this technique, a linearly extending road surface image is generated even though a curved road surface is photographed.

特開2006−214854号公報JP 2006-214854 A

上述したエリアカメラを用いる技術によれば、車両の進行方向の変化を正確に特定することができる。しかしながら、エリアカメラは、広い範囲を高い解像度で撮影するため、短い周期で連続して撮影を行うことができない。このため、車両を高速で走行させた場合には、エリアカメラで連続して撮影した画像に重複部分が存在しなくなってしまい、進行方向の特定ができない。すなわち、従来の技術では、エリアカメラで連続して撮影した2つの画像に重複部分が存在するように、車両を低速で走行させる必要があった。このため、路面の撮影に時間がかかり、また、撮影時に周囲の交通を乱すおそれがあった。したがって、本明細書では、高速で車両を走行させた場合でも、車両の進行方向の変化を反映した路面画像を生成することができる技術を提供する。   According to the technique using the area camera described above, a change in the traveling direction of the vehicle can be accurately identified. However, since the area camera captures a wide range with a high resolution, it cannot continuously capture in a short cycle. For this reason, when the vehicle is driven at a high speed, there is no overlap in the images continuously captured by the area camera, and the traveling direction cannot be specified. That is, in the conventional technique, it is necessary to drive the vehicle at a low speed so that there is an overlapping portion between two images continuously captured by the area camera. For this reason, it took time to photograph the road surface, and there was a risk of disturbing the surrounding traffic during the photographing. Therefore, the present specification provides a technique capable of generating a road surface image that reflects a change in the traveling direction of the vehicle even when the vehicle is traveling at high speed.

本明細書が開示する路面画像生成車両は、走行しながら路面を撮影して路面の連続画像を生成する。この路面画像生成車両は、路面撮影手段と、第1ラインカメラと、第2ラインカメラと、第1の一致点特定手段と、第2の一致点特定手段と、画像配列手段を有している。路面撮影手段は、繰り返し路面を撮影する。第1ラインカメラは、一方向に長い第1視野範囲内の路面を撮影する。第2ラインカメラは、第2視野範囲内の路面を撮影する。第2視野範囲は、一方向に長く、第1視野範囲と交差する。第1の一致点特定手段は、第1タイミングで第1ラインカメラで撮影した第1画像と第1タイミングから所定時間経過後の第2タイミングで第2ラインカメラで撮影した第4画像との一致点である第1の一致点を特定する。第2の一致点特定手段は、第1タイミングで第2ラインカメラで撮影した第2画像と第2タイミングで第1ラインカメラで撮影した第3画像との一致点である第2の一致点を特定する。画像配列手段は、第1の一致点と第2の一致点の位置関係に基づいて、第1タイミングから第2タイミングの間に路面撮影手段で撮影された画像を配列する。   The road surface image generation vehicle disclosed in this specification captures a road surface while traveling and generates a continuous image of the road surface. The road surface image generation vehicle includes a road surface photographing unit, a first line camera, a second line camera, a first matching point specifying unit, a second matching point specifying unit, and an image arranging unit. . The road surface photographing means repeatedly photographs the road surface. The first line camera photographs a road surface within a first visual field range that is long in one direction. The second line camera photographs the road surface within the second visual field range. The second visual field range is long in one direction and intersects the first visual field range. The first matching point specifying means matches the first image captured by the first line camera at the first timing with the fourth image captured by the second line camera at a second timing after a predetermined time has elapsed from the first timing. A first matching point that is a point is specified. The second coincidence point specifying means obtains a second coincidence point that is a coincidence point between the second image photographed by the second line camera at the first timing and the third image photographed by the first line camera at the second timing. Identify. The image arrangement means arranges the images photographed by the road surface photographing means between the first timing and the second timing based on the positional relationship between the first coincidence point and the second coincidence point.

図13は、路面画像生成車両の進行方向150と、第1ラインカメラの視野範囲110と、第2ラインカメラの視野範囲120を例示している。なお、図13では、第1タイミングにおける進行方向150、視野範囲110、120を、進行方向150a、視野範囲110a、120aとして示しており、第2タイミングにおけるこれらを、進行方向150b、視野範囲110b、120bとして示している。例示するように、この路面画像生成車両では、第1ラインカメラの視野範囲110と第2ラインカメラ120の視野範囲が互いに交差している。第1タイミングにおいては、第1ラインカメラにより視野範囲110a内の路面画像(第1画像)が撮影され、第2ラインカメラにより視野範囲120a内の路面画像(第2画像)が撮影される。その後の第2タイミングにおいては、路面画像生成車両が移動しているため、第1ラインカメラにより視野範囲110b内の路面画像(第3画像)が撮影され、第2ラインカメラにより視野範囲120b内の路面画像(第4画像)が撮影される。第1〜第4画像が撮影されると、第1画像と第4画像との一致点である第1の一致点が特定される。第1の一致点は、視野範囲110aと視野範囲120bとの一致点(図10の点160)を意味する。また、第2画像と第3画像との一致点である第2の一致点が特性される。第2の一致点は、視野範囲110bと視野範囲120aとの一致点(図10の点170)を意味する。このように、2つの一致点(第1の一致点160と第2の一致点170)が特定されると、第1タイミングにおける視野範囲110a、120aと、第2タイミングにおける視野範囲110b、120bとの相対位置関係が判明する。一致点160、170が特定されることで、第1タイミングにおける車両の進行方向150aと、第2タイミングにおける車両の進行方向150bとの間の角度(すなわち、進行方向の変化量)が判明する。この路面画像生成車両は、第1の一致点と第2の一致点の位置関係に基づいて、路面画像撮影手段で撮影された画像を配列する。したがって、車両の進行方向が変化した場合でも、進行方向の変化に応じて画像を配列することができる。したがって、路面画像撮影手段で撮影された範囲の路面全体の正確な画像を生成することができる。また、この路面画像生成車両は、第1ラインカメラで撮影した画像と第2ラインカメラで撮影された画像(すなわち、2つの線状の視野範囲内の画像)によって、第1タイミングと第2タイミングとの間における進行方向の変化量を特定する。第1ラインカメラと第2ラインカメラは、従来技術のエリアカメラのように広い視野範囲を撮影する必要が無いので、短い周期で連続して撮影を行うことができる。したがって、この路面画像生成車両は、高速で走行しながら路面の連続画像を生成することができる。   FIG. 13 illustrates the traveling direction 150 of the road surface image generation vehicle, the visual field range 110 of the first line camera, and the visual field range 120 of the second line camera. In FIG. 13, the traveling direction 150 and the visual field ranges 110 and 120 at the first timing are shown as the traveling direction 150a and the visual field ranges 110a and 120a, and these at the second timing are represented by the traveling direction 150b, the visual field range 110b, 120b. As illustrated, in this road surface image generation vehicle, the visual field range 110 of the first line camera and the visual field range of the second line camera 120 intersect each other. At the first timing, a road surface image (first image) within the visual field range 110a is captured by the first line camera, and a road surface image (second image) within the visual field range 120a is captured by the second line camera. At the subsequent second timing, since the road surface image generation vehicle is moving, a road surface image (third image) in the visual field range 110b is captured by the first line camera, and the second line camera is in the visual field range 120b. A road surface image (fourth image) is taken. When the first to fourth images are captured, a first matching point that is a matching point between the first image and the fourth image is specified. The first coincidence point means a coincidence point (point 160 in FIG. 10) between the visual field range 110a and the visual field range 120b. In addition, a second matching point that is a matching point between the second image and the third image is characterized. The second coincidence point means a coincidence point (point 170 in FIG. 10) between the visual field range 110b and the visual field range 120a. Thus, when two coincidence points (the first coincidence point 160 and the second coincidence point 170) are specified, the visual field ranges 110a and 120a at the first timing, and the visual field ranges 110b and 120b at the second timing, The relative positional relationship of becomes clear. By identifying the coincidence points 160 and 170, the angle between the vehicle traveling direction 150a at the first timing and the vehicle traveling direction 150b at the second timing (that is, the amount of change in the traveling direction) is determined. The road surface image generating vehicle arranges images photographed by the road surface image photographing means based on the positional relationship between the first coincidence point and the second coincidence point. Therefore, even when the traveling direction of the vehicle changes, the images can be arranged according to the change in the traveling direction. Therefore, it is possible to generate an accurate image of the entire road surface in the range photographed by the road surface image photographing means. In addition, the road surface image generation vehicle has a first timing and a second timing based on an image photographed by the first line camera and an image photographed by the second line camera (that is, an image within two linear visual field ranges). The amount of change in the direction of travel between and is specified. Since the first line camera and the second line camera do not need to shoot a wide field of view, unlike the conventional area camera, it is possible to shoot continuously in a short cycle. Therefore, this road surface image generation vehicle can generate a continuous image of the road surface while traveling at a high speed.

上述した路面画像生成車両においては、第2の一致点特定手段が、第1の一致点特定手段が第1の一致点を特定した後に、第1の一致点を中心にして第2画像と第3画像を相対回転させながら、第2画像と第3画像が重なる範囲の一致度を算出し、算出した一致度に基づいて第2の一致点を特定することが好ましい。   In the road surface image generation vehicle described above, the second matching point specifying unit specifies the first matching point after the first matching point specifying unit specifies the first matching point, and the second image and the second image centered on the first matching point. It is preferable that the degree of coincidence in a range where the second image and the third image overlap is calculated while relatively rotating the three images, and the second coincidence point is specified based on the calculated degree of coincidence.

第1の一致点が特定されれば、第2の一致点は、第1の一致点を中心にして第2画像と第3画像を相対回転させたときに第2画像と第3画像が重なる範囲内に存在する。第2画像と第3画像が重なる範囲は、両者を相対回転させる角度に応じて変化する。最もよく一致する角度において重なる範囲を第2の一致点とすることができる。第2画像と第3画像が重なる範囲は狭い範囲であるので、第2の一致点を容易に特定することができる。第2画像と第3画像が重なる範囲の一致度に基づいて第2の一致点を特定することで、第2の一致点を特定する演算処理に要する負荷を軽減することができる。   If the first matching point is specified, the second matching point overlaps the second image and the third image when the second image and the third image are relatively rotated around the first matching point. Exists in range. The range in which the second image and the third image overlap varies depending on the angle at which the two images are relatively rotated. The overlapping range at the best matching angle can be the second matching point. Since the range where the second image and the third image overlap is a narrow range, the second matching point can be easily specified. By specifying the second matching point based on the matching degree in the range where the second image and the third image overlap, it is possible to reduce the load required for the arithmetic processing for specifying the second matching point.

上述した路面画像生成車両は、第1ラインカメラと路面撮影手段とが1つのラインカメラにより構成されていることが好ましい。   In the road surface image generation vehicle described above, it is preferable that the first line camera and the road surface photographing means are configured by one line camera.

このような構成によれば、路面画像生成車両をより簡略化することができる。   According to such a configuration, the road surface image generation vehicle can be further simplified.

また、上述した処理を行う路面画像生成方法も、本明細書が開示する発明の1つである。また、路面撮影手段と、第1ラインカメラと、第2ラインカメラと、第1タイミングで第1ラインカメラで路面を撮影すると共に第2ラインカメラで路面を撮影する第1制御手段と、第1タイミングから所定時間経過後の第2タイミングで第1ラインカメラで路面を撮影すると共に第2ラインカメラで路面を撮影する第2制御手段を有する路面画像撮影車両も、本明細書が開示する発明の1つである。この路面画像撮影車両により撮影された各画像を用いて上述した処理を行うことで、路面全体の正確な画像を生成することができる。また、この路面撮影車両により撮影された各画像に対して、第1の一致点の特定、第2の一致点の特定、及び、画像の配列を行う路面画像生成装置及び路面画像生成方法も、本明細書が開示する発明の1つである。   A road surface image generation method that performs the above-described processing is one of the inventions disclosed in this specification. A road surface photographing means; a first line camera; a second line camera; a first control means for photographing a road surface with the first line camera at a first timing; A road surface imaging vehicle having second control means for capturing a road surface with the first line camera at a second timing after a predetermined time has elapsed from the timing and also capturing a road surface with the second line camera is also disclosed in the present specification. One. An accurate image of the entire road surface can be generated by performing the above-described processing using each image captured by the road surface image capturing vehicle. Also, a road surface image generation device and a road surface image generation method for performing identification of the first coincidence point, identification of the second coincidence point, and image arrangement for each image photographed by the road surface photographing vehicle, This is one of the inventions disclosed in this specification.

路面画像生成車両10の概略側面図。1 is a schematic side view of a road surface image generation vehicle 10. FIG. 路面画像生成車両10の概略上面図。1 is a schematic top view of a road surface image generation vehicle 10. FIG. 全体画像生成処理を示すフローチャート。The flowchart which shows whole image generation processing. 画像A1〜A1000を真っ直ぐに配列した画像C1を示す図。The figure which shows the image C1 which arranged the images A1-A1000 straight. 画像B1〜B1000を真っ直ぐに配列した画像D1を示す図。The figure which shows the image D1 which arranged the images B1-B1000 straightly. 被写体70を基準として画像C1と画像D1を重ね合わせた図。The figure which overlap | superposed the image C1 and the image D1 on the subject 70 as a reference | standard. 画像A1、A1000、B1及びB1000の位置関係の説明図。Explanatory drawing of the positional relationship of image A1, A1000, B1, and B1000. 一致点82を特定したときの画像A1、A1000、B1及びB1000の位置関係を示す図。The figure which shows the positional relationship of image A1, A1000, B1, and B1000 when the matching point 82 is specified. 移動経路90についての説明図。Explanatory drawing about the movement path | route 90. FIG. 画像A1〜A1000を移動経路90に沿って配列した画像を示す図。The figure which shows the image which arranged the images A1-A1000 along the movement path | route 90. FIG. 移動経路90に沿って配列した画像A1〜A1000に、移動経路90に沿って配列した画像B1〜B1000を重ね合わせた画像を示す図。The figure which shows the image which superimposed the images B1-B1000 arranged along the movement path | route 90 on the images A1-A1000 arranged along the movement path | route 90. FIG. 角度算出処理の説明図。Explanatory drawing of an angle calculation process. 視野範囲110a、110b、120a、120bの位置関係を示す図。The figure which shows the positional relationship of the visual field range 110a, 110b, 120a, 120b.

以下に説明する実施例の特徴について説明する。
(特徴1)第1ラインカメラは、その視野範囲の幅(路面画像生成車両の進行方向に沿った距離)だけ路面画像生成車両が進行する毎に、その視野範囲内の路面を撮影する。
(特徴2)第2ラインカメラは、その視野範囲の幅(路面画像生成車両の進行方向に沿った距離)だけ路面画像生成車両が進行する毎に、その視野範囲内の路面を撮影する。
(特徴3)第1タイミングと第2タイミングの間隔は、第1ラインカメラ及び第2ラインカメラが画像を繰り返し撮影する時間間隔より長い。
(特徴4)第1タイミングと第2タイミングの間隔は、第1画像と第4画像の一部が重複し、第2画像と第3画像の一部が重複する間隔に設定されている。
(特徴5)第1の一致点特定手段は、第1ラインカメラで連続して撮影された画像を一列に並べた画像と、第2ラインカメラで連続して撮影された画像を一列に並べた画像を比較することで、第1の一致点を特定する。すなわち、第1の一致点特定手段は、第1タイミングと第2タイミングの間は車両が直進したと仮定した状態から演算を開始して第1の一致点を特定する。
The features of the embodiment described below will be described.
(Characteristic 1) Each time the road surface image generation vehicle travels by the width of the visual field range (distance along the traveling direction of the road surface image generation vehicle), the first line camera captures the road surface within the visual field range.
(Feature 2) Each time the road surface image generation vehicle travels by the width of the visual field range (distance along the traveling direction of the road surface image generation vehicle), the second line camera captures the road surface within the visual field range.
(Feature 3) The interval between the first timing and the second timing is longer than the time interval at which the first line camera and the second line camera repeatedly take images.
(Feature 4) The interval between the first timing and the second timing is set to an interval where a part of the first image and the fourth image overlap and a part of the second image and the third image overlap.
(Characteristic 5) The first coincidence point specifying means arranges the images continuously photographed by the first line camera in a line and the images continuously photographed by the second line camera in a line. By comparing the images, the first matching point is specified. That is, the first coincidence point specifying means starts the calculation from the state where the vehicle has traveled straight between the first timing and the second timing, and specifies the first coincidence point.

図1は、実施例に係る路面画像生成車両10の概略側面図を示しており、図2は路面画像生成車両10の概略上面図を示している。図1、2に示すように、路面画像生成車両10は、車両12と、ラインカメラ14と、ラインカメラ16と、エンコーダ18と、記憶装置20と、制御装置22を有している。   FIG. 1 is a schematic side view of a road surface image generation vehicle 10 according to the embodiment, and FIG. 2 is a schematic top view of the road surface image generation vehicle 10. As shown in FIGS. 1 and 2, the road surface image generation vehicle 10 includes a vehicle 12, a line camera 14, a line camera 16, an encoder 18, a storage device 20, and a control device 22.

車両12は、マイクロバスを測定用に改造したものである。車両12の上部には、車両12から前方に突出する支持体24が設置されている。ラインカメラ14とラインカメラ16は、支持体24によって、車両12の前方上部に固定されている。ラインカメラ14とラインカメラ16は、真下に向けて固定されている。ラインカメラ14、16は、撮像素子(CCD、CMOS等)が、長手方向に多数(約4000個)配列されており、短手方向に数個(約10個)配列されている撮像素子ユニットを内蔵しており、直線状に伸びる細長い視野範囲内を撮影する。ラインカメラ14、16は、真下に向けて路面を撮影する。図2の範囲60は、ラインカメラ14の視野範囲を示している。ラインカメラ14は、視野範囲60内の路面を撮影する。図2に示すように、視野範囲60は、車両12の進行方向50に対して角度θ1だけ傾斜した方向に長く伸びている。視野範囲60の長手方向の長さは約4000mmであり、視野範囲60の短手方向の長さは約1mmである。図2の範囲62は、ラインカメラ16の視野範囲を示している。ラインカメラ16は、視野範囲62内の路面を撮影する。図2に示すように、視野範囲62は、車両12の進行方向に対して、視野範囲60と反対側に角度θ2だけ傾斜した方向に長く伸びている。本実施例では、角度θ1と角度θ2は等しい角度である。視野範囲62の長手方向の長さは約4000mmであり、視野範囲60の短手方向の長さは約1mmである。視野範囲60と視野範囲62が交差してX字を形成するように、ラインカメラ14、16が配置されている。視野範囲60と視野範囲62が交差する位置は各カメラのレンズの大きさ分だけ各視野範囲の中心からずれている。但し、そのずれは無視できるほど小さいので、以下では、視野範囲60と視野範囲62が中央点で交差しているとして説明する。視野範囲60、62からなる交差した視野範囲は、車両12の左右で対称である。   The vehicle 12 is a microbus modified for measurement. A support 24 that protrudes forward from the vehicle 12 is installed on the top of the vehicle 12. The line camera 14 and the line camera 16 are fixed to the front upper part of the vehicle 12 by a support 24. The line camera 14 and the line camera 16 are fixed directly below. The line cameras 14 and 16 include an image sensor unit in which a large number (about 4000) of image sensors (CCD, CMOS, etc.) are arranged in the longitudinal direction and several (about 10) are arranged in the short direction. It is built-in and takes a picture of a long and narrow field of view that extends linearly. The line cameras 14 and 16 photograph the road surface directly below. A range 60 in FIG. 2 indicates the visual field range of the line camera 14. The line camera 14 photographs a road surface within the visual field range 60. As shown in FIG. 2, the visual field range 60 extends long in a direction inclined by an angle θ <b> 1 with respect to the traveling direction 50 of the vehicle 12. The length of the visual field range 60 in the longitudinal direction is about 4000 mm, and the length of the visual field range 60 in the short direction is about 1 mm. A range 62 in FIG. 2 indicates the visual field range of the line camera 16. The line camera 16 captures a road surface within the visual field range 62. As shown in FIG. 2, the visual field range 62 extends long in a direction inclined by an angle θ2 on the opposite side to the visual field range 60 with respect to the traveling direction of the vehicle 12. In this embodiment, the angle θ1 and the angle θ2 are equal. The length of the visual field range 62 in the longitudinal direction is about 4000 mm, and the length of the visual field range 60 in the short direction is about 1 mm. The line cameras 14 and 16 are arranged so that the visual field range 60 and the visual field range 62 intersect to form an X shape. The position where the visual field range 60 and the visual field range 62 intersect with each other is shifted from the center of each visual field range by the size of the lens of each camera. However, since the deviation is so small that it can be ignored, the following description will be made assuming that the visual field range 60 and the visual field range 62 intersect at the center point. The intersecting visual field range composed of the visual field ranges 60 and 62 is symmetrical on the left and right of the vehicle 12.

エンコーダ18は回転部18aを有している。回転部18aは、路面と接触しており、車両12が走行するに伴って回転する。エンコーダ18は、回転部18aの回転を検出することで、車両12の走行距離を検出する。回転部18aは、車両12の後輪の近傍であって、車両12の幅方向中間点に配置されている。エンコーダ18は、左右の後輪の走行距離の平均値を検出する。エンコーダ18は、進行方向50に沿った視野範囲60、62の幅分だけ車両12が走行する毎に、パルスを出力する。なお、視野範囲60、62の短手方向の長さは1mmであり、視野範囲60、62は進行方向に対して角度θ傾いているので、進行方向50に沿った視野範囲60、62の幅は、1/sinθ(mm)である。   The encoder 18 has a rotating part 18a. The rotating part 18a is in contact with the road surface and rotates as the vehicle 12 travels. The encoder 18 detects the travel distance of the vehicle 12 by detecting the rotation of the rotating portion 18a. The rotating portion 18 a is disposed in the vicinity of the rear wheel of the vehicle 12 and at the intermediate point in the width direction of the vehicle 12. The encoder 18 detects the average value of the travel distance of the left and right rear wheels. The encoder 18 outputs a pulse each time the vehicle 12 travels by the width of the visual field ranges 60 and 62 along the traveling direction 50. The length of the visual field ranges 60 and 62 in the short direction is 1 mm, and the visual field ranges 60 and 62 are inclined at an angle θ with respect to the traveling direction, so the width of the visual field ranges 60 and 62 along the traveling direction 50 is Is 1 / sin θ (mm).

記憶装置20は、制御装置22に接続されている。記憶装置20は、ラインカメラ14、16によって撮影された画像等を記憶する。   The storage device 20 is connected to the control device 22. The storage device 20 stores images taken by the line cameras 14 and 16.

制御装置22には、ラインカメラ14、16、エンコーダ18、記憶装置20が接続されている。制御装置22は、ラインカメラ14、16及び記憶装置20の動作を制御する。制御装置22には、エンコーダ18から上述したパルスが入力される。制御装置22は、1パルスが入力される毎(すなわち、車両12が1/sinθ(mm)進む毎)に、ラインカメラ14、16で撮影を行う。視野範囲60、62の進行方向50に沿った幅分だけ車両12が進行する毎にラインカメラ14、16が路面を撮影するので、ラインカメラ14、16の夫々によって車両12が走行する路面が略隙間無く撮影される。制御装置22は、撮影した画像をその撮影順序と共に記憶装置20に記憶させる。また、制御装置22は、エンコーダ18から1000パルスが入力される毎(すなわち、車両が1000/sinθ(mm)進む毎)に、以下に説明する全体画像生成処理を実行する。   Line cameras 14 and 16, an encoder 18, and a storage device 20 are connected to the control device 22. The control device 22 controls the operations of the line cameras 14 and 16 and the storage device 20. The above-described pulse is input from the encoder 18 to the control device 22. The control device 22 performs imaging with the line cameras 14 and 16 every time one pulse is input (that is, every time the vehicle 12 travels 1 / sin θ (mm)). Since the line cameras 14 and 16 capture the road surface every time the vehicle 12 travels by the width along the traveling direction 50 of the visual field ranges 60 and 62, the road surface on which the vehicle 12 travels by each of the line cameras 14 and 16 is approximately. Photographed without gaps. The control device 22 stores the captured images in the storage device 20 together with the imaging order. Further, every time 1000 pulses are input from the encoder 18 (that is, every time the vehicle advances 1000 / sin θ (mm)), the control device 22 executes the entire image generation process described below.

次に、制御装置22が行う全体画像生成処理について説明する。図3は、全体画像生成処理を示すフローチャートである。上述したように、ラインカメラ14、16は1パルス毎に路面を撮影し、制御装置22は1000パルス毎に全体画像生成処理を実行する。したがって、制御装置22が全体画像生成処理を開始する時点では、ラインカメラ14により1000個の画像が得られており、ラインカメラ16によって1000個の画像が得られている。以下では、ラインカメラ14が撮影した画像をその撮影順に画像A1、A2、A3・・・A1000といい、ラインカメラ14が撮影した画像をその撮影順に画像B1、B2、B3・・・B1000という。全体画像生成処理では、画像A1〜A1000を配列することで、画像A1〜A1000の撮影範囲内の路面全体の画像を生成する。なお、全体画像生成処理の実行中においても、ラインカメラ14、16は1パルス毎に画像を撮影している。全体画像生成処理の実行中に撮影された画像は、次の全体画像生成処理に使用される。   Next, the entire image generation process performed by the control device 22 will be described. FIG. 3 is a flowchart showing the entire image generation process. As described above, the line cameras 14 and 16 photograph the road surface every pulse, and the control device 22 executes the entire image generation process every 1000 pulses. Therefore, when the control device 22 starts the entire image generation process, 1000 images are obtained by the line camera 14 and 1000 images are obtained by the line camera 16. Hereinafter, the images captured by the line camera 14 are referred to as images A1, A2, A3,... A1000 in the order of capturing, and the images captured by the line camera 14 are referred to as images B1, B2, B3,. In the entire image generation process, an image of the entire road surface within the imaging range of the images A1 to A1000 is generated by arranging the images A1 to A1000. Even during the execution of the entire image generation process, the line cameras 14 and 16 capture an image for each pulse. An image captured during the execution of the whole image generation process is used for the next whole image generation process.

ステップS2では、制御装置22は、図4に示すように、画像A1〜A1000を、画像の長手方向に対して角度θ1傾いた方向に沿って直線状に並べる。すなわち、画像A1〜A1000を、各画像の撮影時における車両12の進行方向50に沿って直線状に並べる。これによって、画像A1〜A1000を繋ぎ合わせた画像C1を生成する。同様にして、制御装置22は、画像B1〜B1000を、各画像の長手方向に対して角度θ2傾いた方向(すなわち、各画像の撮影時における車両12の進行方向50)に沿って直線状に並べる。これによって、図5に示すように、画像B1〜B1000を繋ぎ合わせた画像D1を生成する。なお、図4、図5及び以下に説明する各図では、画像A1〜A1000及び画像B1〜B1000の各画像の幅を実際より大きく示しており、また、画像A1〜A1000及び画像B1〜B1000の一部の図示を省略している。ラインカメラ14とラインカメラ16は、同一の路面を撮影している。したがって、図4、5に示すように、画像C1と画像D1の撮影範囲が重複する部分には、同一の被写体70、72が写っている。   In step S2, as shown in FIG. 4, the control device 22 arranges the images A1 to A1000 in a straight line along the direction inclined by the angle θ1 with respect to the longitudinal direction of the image. That is, the images A1 to A1000 are arranged in a straight line along the traveling direction 50 of the vehicle 12 when each image is captured. As a result, an image C1 obtained by joining the images A1 to A1000 is generated. Similarly, the controller 22 linearly displays the images B1 to B1000 along the direction inclined by the angle θ2 with respect to the longitudinal direction of each image (that is, the traveling direction 50 of the vehicle 12 when each image is captured). Line up. Thereby, as shown in FIG. 5, an image D <b> 1 in which the images B <b> 1 to B <b> 1000 are connected is generated. 4 and 5 and the respective drawings described below, the widths of the images A1 to A1000 and the images B1 to B1000 are shown larger than the actual width, and the images A1 to A1000 and the images B1 to B1000 are shown. Some illustrations are omitted. The line camera 14 and the line camera 16 photograph the same road surface. Therefore, as shown in FIGS. 4 and 5, the same subjects 70 and 72 are shown in a portion where the imaging ranges of the image C1 and the image D1 overlap.

ステップS4では、制御装置22は、画像C1の中央部より下側に写る被写体と画像D1の中央部より下側に写る被写体の中で同一の被写体を同定する。被写体の同定は、被写体の形状が一致するポイントを複数点照合することにより行われる。図4、5では、被写体70が同一として同定される。そして、制御装置22は、同定した被写体70が一致する画像C1と画像D1の相対位置及び相対角度(以下、相対位置及び相対角度を合わせて相対位置関係という)を算出する。すなわち、図6に示すように、画像D1を画像C1に重ね合わせたときに、両画像に写る被写体70が一致する画像D1と画像C1との相対位置関係を算出する。   In step S4, the control device 22 identifies the same subject among the subject that appears below the center of the image C1 and the subject that appears below the center of the image D1. The subject is identified by collating a plurality of points with the same shape of the subject. 4 and 5, the subject 70 is identified as the same. Then, the control device 22 calculates a relative position and a relative angle between the image C1 and the image D1 in which the identified subject 70 matches (hereinafter, the relative position and the relative angle are referred to as a relative positional relationship). That is, as shown in FIG. 6, when the image D1 is superimposed on the image C1, the relative positional relationship between the image D1 and the image C1 in which the subject 70 in both images matches is calculated.

ステップS6では、制御装置22は、ステップS4で算出した相対位置関係に基づいて、画像A1と画像B1000の一致点を特定する。例えば、図6に示す相対位置関係が得られている場合には、画像A1と画像B1000が交差する点80が一致点として特定される。一致点80の位置は、画像A1の中央点76からの距離と、画像B1000の中央点78からの距離により特定される。   In step S6, the control device 22 specifies a coincidence point between the image A1 and the image B1000 based on the relative positional relationship calculated in step S4. For example, when the relative positional relationship shown in FIG. 6 is obtained, a point 80 where the image A1 and the image B1000 intersect is specified as a coincidence point. The position of the coincidence point 80 is specified by the distance from the center point 76 of the image A1 and the distance from the center point 78 of the image B1000.

ステップS8では、制御装置22は、図7に示すように、画像A1、B1、A1000及びB1000を配置する。画像A1、B1、A1000及びB1000は、ラインカメラ14の視野範囲60とラインカメラ16の視野範囲62を考慮して配置される。同じタイミングで撮影した画像A1と画像B1の相対位置関係は、視野範囲60と視野範囲62の相対位置関係と等しくなる。したがって、画像A1と画像B1は、画像A1の中央点76に画像B1の中央点が重なり、画像A1に対する画像B1の相対角度が角度θ1+θ2となるように配置される。以下では、相対位置関係が固定された画像A1と画像B1の組を画像組(A1,B1)という。画像A1000と画像B1000も、同様に、画像B1000の中央点78が画像A1000の中央点と重なり、画像A1000に対する画像B1000の相対角度が角度θ1+θ2となるように配置される。以下では、相対位置関係が固定された画像A1000と画像B1000の組を、画像組(A1000,B1000)という。また、画像A1と画像B1000は、一致点80で重なるように配置される。また、画像A1と画像B1000の間の角度φは、暫定的に角度θ1+θ2とされる。次に、制御装置22は、一致点80を中心として、画像組(A1,B1)に対して画像組(A1000,B1000)を回転させながら(すなわち、画像組(A1,B1)に対する画像組(A1000,B1000)の相対角度φを変更しながら)、画像A1000と画像B1の重複範囲においてこれらの画像の一致度を算出する。なお、上述したようにラインカメラ14、16は短手方向にも数個の撮像素子を備えているので、画像A1000と画像B1の重複範囲は複数の画素により構成されている。制御装置22は、重複範囲の画素値に基づいて、一致度を算出する。そして、最も高い一致度が得られる角度φmaxを特定し、図8に示すように角度φmaxのときの画像A1000と画像B1との重複範囲を一致点82として特定する。一致点82の位置は、中央点76からの距離と、中央点78からの距離により特定される。このように、第2の一致点82を特定する際には、画像組(A1,B1)に対する画像組(A1000,B1000)の角度φのみが未定となっているので、角度φを変更しながら画像A1000と画像B1との重複箇所の一致度を算出することで、容易に一致点82を特定することができる。このように、角度φを変更したときにおける画像A1000と画像B1との重複箇所のみを考慮して一致点82を特定することで、一致点82の特定する演算処理の負担を軽減することができる。一致点80、82が特定されると、図8に示すように、画像A1、B1、A1000及びB1000の相対位置関係が確定する。画像A1、B1、A1000及びB1000のそれぞれは、これらの画像を撮影したときの視野範囲60、62の相対位置関係を示している。したがって、画像A1、B1、A1000及びB1000の相対位置関係が確定すると、画像A1を撮影したときの視野範囲60と、画像B1を撮影したときの視野範囲62と、画像A1000を撮影したときの視野範囲60と、画像B1000を撮影したときの視野範囲62との相対位置関係が確定する。車両12の進行方向50と視野範囲60、62との相対位置関係は決まっている。したがって、図8に示すように、画像A1、B1、A1000及びB1000の相対位置関係から、画像A1、B1を撮影したときの進行方向50と画像A1000、B1000を撮影したときの進行方向50を特定することができる。このため、画像A1、B1を撮影してから画像A1000、B1000を撮影するまでの間における車両12の進行方向50の変化量(図8の角度ψ)が判明する。また、画像A1、B1の交点(中央点76)と画像A1000、B1000の交点(中央点78)との相対位置は、画像A1、B1を撮影したときの車両12と、画像A1000、B1000を撮影したときの車両12との相対位置(すなわち、位置変化量)を示す。制御装置22は、角度ψと位置変化量を算出する。 In step S8, the control device 22 arranges images A1, B1, A1000, and B1000 as shown in FIG. The images A1, B1, A1000, and B1000 are arranged in consideration of the visual field range 60 of the line camera 14 and the visual field range 62 of the line camera 16. The relative positional relationship between the image A1 and the image B1 captured at the same timing is equal to the relative positional relationship between the visual field range 60 and the visual field range 62. Therefore, the images A1 and B1 are arranged such that the center point of the image B1 overlaps the center point 76 of the image A1, and the relative angle of the image B1 with respect to the image A1 is an angle θ1 + θ2. Hereinafter, the set of the image A1 and the image B1 whose relative positional relationship is fixed is referred to as an image set (A1, B1). Similarly, the image A1000 and the image B1000 are arranged such that the center point 78 of the image B1000 overlaps the center point of the image A1000, and the relative angle of the image B1000 with respect to the image A1000 is an angle θ1 + θ2. Hereinafter, a set of the image A1000 and the image B1000 whose relative positional relationship is fixed is referred to as an image set (A1000, B1000). Further, the image A1 and the image B1000 are arranged so as to overlap at the coincidence point 80. Further, the angle φ between the image A1 and the image B1000 is temporarily set to an angle θ1 + θ2. Next, the control device 22 rotates the image group (A1000, B1000) with respect to the image group (A1, B1) around the coincidence point 80 (that is, the image group (A1, B1) with respect to the image group (A1, B1)). While changing the relative angle φ of A1000 and B1000), the degree of coincidence of these images is calculated in the overlapping range of the images A1000 and B1. As described above, since the line cameras 14 and 16 include several image sensors in the short direction, the overlapping range of the image A1000 and the image B1 is composed of a plurality of pixels. The control device 22 calculates the degree of coincidence based on the pixel values in the overlapping range. Then, the angle φ max at which the highest matching degree is obtained is specified, and the overlapping range between the image A1000 and the image B1 at the angle φ max is specified as the matching point 82 as shown in FIG. The position of the coincidence point 82 is specified by the distance from the center point 76 and the distance from the center point 78. Thus, when specifying the second matching point 82, only the angle φ of the image set (A1000, B1000) with respect to the image set (A1, B1) is undetermined, so the angle φ is changed. By calculating the degree of coincidence of overlapping portions between the image A1000 and the image B1, the coincidence point 82 can be easily identified. In this way, by specifying the coincidence point 82 in consideration of only the overlapping portion between the image A1000 and the image B1 when the angle φ is changed, it is possible to reduce the burden of calculation processing for identifying the coincidence point 82. . When the matching points 80 and 82 are specified, as shown in FIG. 8, the relative positional relationship between the images A1, B1, A1000, and B1000 is determined. Each of the images A1, B1, A1000, and B1000 shows the relative positional relationship between the visual field ranges 60 and 62 when these images are taken. Accordingly, when the relative positional relationship between the images A1, B1, A1000, and B1000 is determined, the field of view range 60 when the image A1 is photographed, the field of view range 62 when the image B1 is photographed, and the field of view when the image A1000 is photographed. The relative positional relationship between the range 60 and the visual field range 62 when the image B1000 is captured is determined. The relative positional relationship between the traveling direction 50 of the vehicle 12 and the visual field ranges 60 and 62 is determined. Therefore, as shown in FIG. 8, the traveling direction 50 when the images A1, B1 are photographed and the traveling direction 50 when the images A1000, B1000 are photographed are specified from the relative positional relationship between the images A1, B1, A1000, and B1000. can do. Therefore, the amount of change in the traveling direction 50 of the vehicle 12 (angle ψ in FIG. 8) from when the images A1 and B1 are taken to when the images A1000 and B1000 are taken is found. The relative position between the intersection (center point 76) of the images A1 and B1 and the intersection (center point 78) of the images A1000 and B1000 is taken as the vehicle 12 when the images A1 and B1 are taken and the images A1000 and B1000. The relative position with respect to the vehicle 12 (that is, the amount of change in position) is shown. The control device 22 calculates the angle ψ and the position change amount.

ステップS10では、制御装置22は、算出した角度ψと位置変化量から、画像A1、B1を撮影してから画像A1000、B1000を撮影するまでの間に車両12が移動した移動経路を算出する。制御装置22は、車両12の経路が円弧であるとして移動経路を算出する。例えば、図8に示すように一致点80、82が特定されている場合には、図9の点線90に示すように移動経路が算出される。   In step S10, the control device 22 calculates a moving path along which the vehicle 12 has moved from the time when the images A1 and B1 are captured to the time when the images A1000 and B1000 are captured, based on the calculated angle ψ and the position change amount. The control device 22 calculates the movement route on the assumption that the route of the vehicle 12 is an arc. For example, when the coincidence points 80 and 82 are specified as shown in FIG. 8, the movement route is calculated as shown by the dotted line 90 in FIG.

ステップS12では、制御装置22は、算出した移動経路90に沿って画像A1〜A1000を配列する。制御装置22は、算出した移動経路90の始点からの順に画像A1〜A1000を配列する。画像A1〜A1000は、中央点が移動経路90上に位置し、移動経路90上における間隔が1/sinθmmの間隔(画像A1〜A1000を撮影した間隔と同じ間隔)となるように配列される。また、画像A1〜A1000は、中央点が位置する箇所の移動経路90の接線に対して角度θ1傾斜して配列される。このようにして、図10に示すように、画像A1を撮影してから画像A1000を撮影するまでにラインカメラ14で撮影された範囲の路面全体の画像が生成される。なお、隣接する画像同士が重複する領域(カーブする移動経路の内周側の領域)は、重複する中の1つの画像を優先表示するようにして画像が生成される。または、重複する画像を平均化する等した画像を表示するようにしてもよい。   In step S12, the control device 22 arranges the images A1 to A1000 along the calculated movement path 90. The control device 22 arranges the images A1 to A1000 in order from the calculated starting point of the movement route 90. The images A1 to A1000 are arranged such that the center point is located on the movement path 90, and the interval on the movement path 90 is an interval of 1 / sin θ mm (the same interval as the interval at which the images A1 to A1000 are taken). Further, the images A1 to A1000 are arranged at an angle of θ1 with respect to the tangent to the moving path 90 where the center point is located. In this way, as shown in FIG. 10, an image of the entire road surface in the range captured by the line camera 14 from the image A1 to the image A1000 is generated. Note that, in an area where adjacent images overlap (area on the inner circumference side of a curved moving path), an image is generated so that one overlapping image is preferentially displayed. Alternatively, an image obtained by averaging overlapping images may be displayed.

制御装置22は、上述した全体画像生成処理を、エンコーダ18から1000パルスが入力される毎に実行し、生成した画像を以前の全体画像生成処理で生成した画像に繋ぎ合わせる。したがって、車両12が走行した路面全体の画像が生成される。この路面画像生成車両10では、車両12の進行方向の変化を考慮して画像が生成されるので、車両12がカーブする路面を走行する場合でも、その路面全体の画像を正確に生成することができる。また、上述したラインカメラ14、16は、エリアカメラに比べて極めて短い周期で路面を撮影することができる。したがって、路面画像生成車両10は、高速で走行しながら路面の画像を生成することができる。   The control device 22 executes the above-described entire image generation process every time 1000 pulses are input from the encoder 18, and connects the generated image to the image generated by the previous entire image generation process. Therefore, an image of the entire road surface on which the vehicle 12 has traveled is generated. In this road surface image generation vehicle 10, since an image is generated in consideration of a change in the traveling direction of the vehicle 12, an image of the entire road surface can be accurately generated even when the vehicle 12 travels on a curved road surface. it can. In addition, the line cameras 14 and 16 described above can capture the road surface with a period that is extremely shorter than that of the area camera. Therefore, the road surface image generation vehicle 10 can generate a road surface image while traveling at a high speed.

なお、上述した実施例では、画像A1〜A1000を移動経路90に沿って配列したが、画像B1〜B1000を移動経路90に沿って配列してもよい。また、図10に示すように、カーブする移動経路90の外周側の領域では、隣接する画像A1〜A1000の間に間隔が形成されてしまう。したがって、図11に示すように、画像A1〜A1000を配列した画像と、画像B1〜B1000を配列した画像を重ねることによって、あるいは、それぞれの画像から補完して画素値を算出することによって、路面全体の画像を生成してもよい。このような構成によれば、重ね合わせた画像B1〜B1000によって、画像A1〜A1000の隙間が補完される。したがって、より精密な画像を生成することができる。   In the above-described embodiment, the images A1 to A1000 are arranged along the movement path 90, but the images B1 to B1000 may be arranged along the movement path 90. Further, as shown in FIG. 10, an interval is formed between the adjacent images A <b> 1 to A <b> 1000 in the region on the outer periphery side of the curved moving path 90. Therefore, as shown in FIG. 11, the road surface is obtained by superimposing the image in which the images A1 to A1000 are arranged and the image in which the images B1 to B1000 are arranged, or by calculating a pixel value by complementing each image. An entire image may be generated. According to such a configuration, the gaps between the images A1 to A1000 are complemented by the superimposed images B1 to B1000. Therefore, a more precise image can be generated.

なお、上述した実施例では、移動経路90を算出する際に、画像A1、B1、A1000及びB1000の相対位置関係から得られた角度ψ(進行方向の変化量)と位置変化量を用いた。しかしながら、画像A1〜A1000はエンコーダ18が出力するパルスに基づいて1/sinθ1(mm)の間隔で撮影されているので、画像A1〜A1000を撮影するまでに車両12が移動した距離は予め分かっている(1000/sinθ1(mm)である)。したがって、画像A1、B1、A1000及びB1000の相対位置関係から得られた角度ψと予め分かっている移動距離に基づいて、移動経路90を算出してもよい。さらに、画像A1〜A1000、B1〜B1000を撮影する間の車両の速度が既知とみなせる場合には、画像A1、B1、A1000及びB1000の一致点の画像照合演算が可能で、経路の推定ができる。また、上述した実施例では、角度ψを算出したが、一致点80、82の位置が決まれば、角度ψは一義的に決まる。したがって、角度ψを算出せずに、一致点80、82の位置から車両12の移動経路90を算出してもよい。   In the above-described embodiment, the angle ψ (change amount in the traveling direction) and the position change amount obtained from the relative positional relationship between the images A1, B1, A1000, and B1000 are used when calculating the movement path 90. However, since the images A1 to A1000 are taken at an interval of 1 / sin θ1 (mm) based on the pulse output from the encoder 18, the distance traveled by the vehicle 12 before taking the images A1 to A1000 is known in advance. (1000 / sin θ1 (mm)). Therefore, the movement path 90 may be calculated based on the angle ψ obtained from the relative positional relationship between the images A1, B1, A1000, and B1000 and the movement distance that is known in advance. Furthermore, when the vehicle speed can be regarded as known while images A1 to A1000 and B1 to B1000 are photographed, an image collation operation of coincident points of images A1, B1, A1000, and B1000 is possible, and a route can be estimated. . In the above-described embodiment, the angle ψ is calculated. However, if the positions of the coincidence points 80 and 82 are determined, the angle ψ is uniquely determined. Therefore, the movement route 90 of the vehicle 12 may be calculated from the positions of the coincidence points 80 and 82 without calculating the angle ψ.

また、上述した実施例では、路面を撮影しながら路面全体の画像を生成する路面画像生成車両10について説明したが、路面の撮影と上述した全体画像生成処理を必ずしも同時進行で行う必要はない。例えば、路面の撮影を行って記憶装置20に撮影した画像とその順序を示すデータを記憶させておき、その後に記憶させたデータを別の計算機に移して、その計算機で全体画像生成処理を行ってもよい。また、路面を撮影しながら、撮影した画像とその撮影順序を示すデータを無線により外部の計算機に送信し、外部の計算機で全体画像生成処理を行ってもよい。   In the above-described embodiment, the road surface image generation vehicle 10 that generates an image of the entire road surface while shooting the road surface has been described. However, it is not always necessary to simultaneously perform the shooting of the road surface and the entire image generation process described above. For example, an image of the road surface is taken and the images taken in the storage device 20 and data indicating the order thereof are stored, then the stored data is transferred to another computer, and the whole image is generated by the computer. May be. Further, while photographing the road surface, the photographed images and the data indicating the photographing order may be transmitted wirelessly to an external computer, and the entire computer may perform the entire image generation process.

なお、上述した処理を正確に実行するためには、車両12の進行方向50と視野範囲60との間の角度θ1と、進行方向50と視野範囲62との間の角度θ2が正確に設定されている必要がある。したがって、路面画像生成車両10は、以下に説明する角度設定処理を路面の撮影前に行っておくことが好ましい。   In order to accurately execute the above-described processing, the angle θ1 between the traveling direction 50 of the vehicle 12 and the visual field range 60 and the angle θ2 between the traveling direction 50 and the visual field range 62 are accurately set. Need to be. Therefore, the road surface image generation vehicle 10 preferably performs the angle setting process described below before photographing the road surface.

角度設定処理では、一辺の長さが既知である正方形が描かれた路面上を、路面画像生成車両10で直進して走行する。これによって、その正方形の画像をラインカメラ14、16で撮影する。ラインカメラ14、16は、上述したように1パルス毎に撮影を行う。次に、図12に示すように、ラインカメラ14で撮影した画像A1〜Anを、その画像の短手方向(視野範囲60の短手方向)に沿って配列する。実際には、視野範囲60は車両12の進行方向に対して角度θaだけ傾斜しているので、短手方向に配列して生成された画像では、図12に示すように正方形であるはずの被写体95が平行四辺形として表示される。次に、生成された画像に移る被写体95の底辺の長さと高さとが等しくなるように、画像の縦横比を調整する(図12は、縦横比調整後の画像を示している)。そして、平行四辺形の縦の辺の傾きθaを算出する。算出された縦の辺の傾きθaは、視野範囲60の長手方向と車両12の進行方向50の間の角度θ1と等しくなる。このような処理によって、視野範囲60の進行方向50に対する角度θ1を算出することができる。算出された角度θ1に基づいて、ラインカメラ14の取付角度を調整したり、制御装置22に実行させるプログラム中の角度θ1の値を調整することで、正確な路面の撮影が可能となる。ラインカメラ16の視野範囲62と車両12の進行方向50との間の角度θ2も、同様の処理によって算出することができる。   In the angle setting process, the road surface image generation vehicle 10 travels straight on a road surface on which a square having a known side length is drawn. Thus, the square image is taken by the line cameras 14 and 16. As described above, the line cameras 14 and 16 perform imaging for each pulse. Next, as shown in FIG. 12, the images A1 to An photographed by the line camera 14 are arranged along the short direction of the image (the short direction of the visual field range 60). Actually, since the visual field range 60 is inclined by an angle θa with respect to the traveling direction of the vehicle 12, in the image generated by being arranged in the short direction, a subject that should be square as shown in FIG. 12. 95 is displayed as a parallelogram. Next, the aspect ratio of the image is adjusted so that the length and height of the bottom side of the subject 95 moving to the generated image are equal (FIG. 12 shows the image after the aspect ratio adjustment). Then, the inclination θa of the vertical sides of the parallelogram is calculated. The calculated vertical side inclination θa is equal to the angle θ1 between the longitudinal direction of the visual field range 60 and the traveling direction 50 of the vehicle 12. By such processing, the angle θ1 of the visual field range 60 with respect to the traveling direction 50 can be calculated. By adjusting the mounting angle of the line camera 14 based on the calculated angle θ1 or by adjusting the value of the angle θ1 in the program executed by the control device 22, it is possible to accurately photograph the road surface. An angle θ2 between the visual field range 62 of the line camera 16 and the traveling direction 50 of the vehicle 12 can also be calculated by a similar process.

なお、本実施例の技術で正確に移動経路を算出するためには、図8に示すように、画像組(A1、B1)と画像組(A1000、B1000)とが2つの交点80、82で交差する必要がある。したがって、視野範囲60、62の交差角度θ1、θ2は、2つの交点80、82が得られる角度に設定されている必要がある。例えば、図8において仮に移動経路の曲率がさらに大きかったとすると、交点80が得られなくなる。このような移動経路が想定される場合には、交点80、82が得られるように、交差角度θ1、θ2をより小さくした方がよい。また、移動経路の算出処理を実行するサイクルは、2つの交点80、82が得られるように適切に設定されている必要がある。例えば、上述した実施例より短いサイクルで(例えば、画像A1〜A500及び画像B1〜B500を撮影する毎に)移動経路算出処理を行うと、図8の点76と点78の間の距離が短くなるので、交点80、82が得られ易くなる。但し、交差角度θ1、θ2を小さくしすぎると、進行方向に対する視野範囲の傾きが大きくなるので、撮影される画像の歪みが大きくなる。また、移動経路算出処理のサイクルを短くしすぎると、処理のための制御装置の負担が増大する。したがって、交差角度θ1、θ2及び移動経路算出処理の実行サイクルは、想定される車両12の移動経路の曲率等に合わせて適切に設定する必要がある。   In order to calculate the movement route accurately with the technique of the present embodiment, as shown in FIG. 8, the image set (A1, B1) and the image set (A1000, B1000) are at two intersections 80, 82. It is necessary to cross. Therefore, the crossing angles θ1 and θ2 of the visual field ranges 60 and 62 need to be set to angles at which two intersections 80 and 82 are obtained. For example, if the curvature of the moving route is even larger in FIG. 8, the intersection 80 cannot be obtained. When such a movement route is assumed, it is better to make the intersection angles θ1 and θ2 smaller so that the intersections 80 and 82 are obtained. In addition, the cycle for executing the movement route calculation process needs to be appropriately set so that two intersections 80 and 82 can be obtained. For example, when the movement route calculation process is performed in a shorter cycle than the above-described embodiment (for example, every time the images A1 to A500 and the images B1 to B500 are photographed), the distance between the points 76 and 78 in FIG. Therefore, the intersection points 80 and 82 are easily obtained. However, if the intersection angles θ1 and θ2 are too small, the inclination of the visual field range with respect to the traveling direction becomes large, so that the distortion of the captured image becomes large. If the cycle of the movement route calculation process is too short, the burden on the control device for the process increases. Therefore, it is necessary to appropriately set the intersection angles θ1 and θ2 and the execution cycle of the movement route calculation process according to the assumed curvature of the movement route of the vehicle 12, and the like.

また、上述の実施例では、画像A1、A1000、B1及びB1000を1ラインの画像として説明している。しかしながら、車両12の移動経路の曲率等を考慮して適切な解像度で路面を撮影しようとすると、撮影間隔が短くなる場合がある。したがって、各カメラで撮影する画像は、100ライン程度の帯画像であってもよい。この場合も、撮影範囲の交差角度を用いて同様に画像を処理することができる。   In the above-described embodiment, the images A1, A1000, B1, and B1000 are described as one-line images. However, if an attempt is made to photograph the road surface with an appropriate resolution in consideration of the curvature of the moving route of the vehicle 12, the photographing interval may be shortened. Therefore, the image captured by each camera may be a band image of about 100 lines. In this case as well, the image can be processed in the same manner using the crossing angle of the shooting ranges.

以上、本発明の具体例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成し得るものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology exemplified in this specification or the drawings can achieve a plurality of objects at the same time, and has technical usefulness by achieving one of the objects.

10:路面画像生成車両
12:車両
14:ラインカメラ
16:ラインカメラ
18:エンコーダ
18a:回転部
20:記憶装置
22:制御装置
50:進行方向
60:視野範囲
62:視野範囲
80:一致点
82:一致点
90:移動経路
10: road surface image generation vehicle 12: vehicle 14: line camera 16: line camera 18: encoder 18a: rotating unit 20: storage device 22: control device 50: traveling direction 60: visual field range 62: visual field range 80: coincidence point 82: Matching point 90: travel route

Claims (7)

走行しながら路面を撮影して路面の連続画像を生成する路面画像生成車両であって、
繰り返し路面を撮影する路面撮影手段と、
一方向に長い第1視野範囲内の路面を撮影する第1ラインカメラと、
一方向に長く、第1視野範囲と交差する第2視野範囲内の路面を撮影する第2ラインカメラと、
第1タイミングで第1ラインカメラで撮影した第1画像と、第1タイミングから所定時間経過後の第2タイミングで第2ラインカメラで撮影した第4画像との一致点である第1の一致点を特定する第1の一致点特定手段と、
第1タイミングで第2ラインカメラで撮影した第2画像と、第2タイミングで第1ラインカメラで撮影した第3画像との一致点である第2の一致点を特定する第2の一致点特定手段と、
第1の一致点と第2の一致点の位置関係に基づいて、第1タイミングから第2タイミングの間に路面撮影手段で撮影された画像を配列する画像配列手段、
を有する路面画像生成車両。
A road surface image generation vehicle that captures a road surface while driving to generate a continuous image of the road surface,
Road surface photographing means for repeatedly photographing the road surface;
A first line camera that images a road surface within a first field of view that is long in one direction;
A second line camera that images a road surface in a second field of view that is long in one direction and intersects the first field of view;
A first coincidence point that is a coincidence point between the first image photographed by the first line camera at the first timing and the fourth image photographed by the second line camera at the second timing after a predetermined time has elapsed from the first timing. First matching point specifying means for specifying
Second match point specification that specifies a second match point that is a match point between the second image captured by the second line camera at the first timing and the third image captured by the first line camera at the second timing Means,
Image arrangement means for arranging images photographed by the road surface photographing means between the first timing and the second timing based on the positional relationship between the first coincidence point and the second coincidence point;
A road surface image generating vehicle.
第2の一致点特定手段は、第1の一致点特定手段が第1の一致点を特定した後に、第1の一致点を中心にして第2画像と第3画像を相対回転させながら、第2画像と第3画像が重なる範囲の一致度を算出し、算出した一致度に基づいて第2の一致点を特定することを特徴とする請求項1に記載の路面画像生成車両。   The second matching point specifying means specifies the first matching point after the first matching point specifying means specifies the first matching point, while relatively rotating the second image and the third image around the first matching point. The road surface image generating vehicle according to claim 1, wherein the degree of coincidence in a range where the two images and the third image overlap is calculated, and the second coincidence point is specified based on the calculated degree of coincidence. 第1ラインカメラと路面撮影手段とが1つのラインカメラにより構成されていることを特徴とする請求項1又は2に記載の路面画像生成車両。   The road surface image generating vehicle according to claim 1 or 2, wherein the first line camera and the road surface photographing means are constituted by one line camera. 繰り返し路面を撮影する路面撮影手段と、
一方向に長い第1視野範囲内の路面を撮影する第1ラインカメラと、
一方向に長く、第1視野範囲と交差する第2視野範囲内の路面を撮影する第2ラインカメラ、
を有する路面画像撮影車両が走行しながら路面を撮影して路面の連続画像を生成する路面画像生成方法であって、
路面撮影手段で繰り返し路面を撮影する路面撮影ステップと、
第1タイミングで第1ラインカメラで路面を撮影すると共に第2ラインカメラで路面を撮影する第1制御ステップと、
第1タイミングから所定時間経過後の第2タイミングで第1ラインカメラで路面を撮影すると共に第2ラインカメラで路面を撮影する第2制御ステップと、
第1タイミングで第1ラインカメラで撮影した第1画像と、第2タイミングで第2ラインカメラで撮影した第4画像との一致点である第1の一致点を特定する第1の一致点特定ステップと、
第1タイミングで第2ラインカメラで撮影した第2画像と、第2タイミングで第1ラインカメラで撮影した第3画像との一致点である第2の一致点を特定する第2の一致点特定ステップと、
第1の一致点と第2の一致点の位置関係に基づいて、第1タイミングから第2タイミングの間に路面撮影手段で撮影した画像を配列する画像配列ステップ、
を有する路面画像生成方法。
Road surface photographing means for repeatedly photographing the road surface;
A first line camera that images a road surface within a first field of view that is long in one direction;
A second line camera that images a road surface in a second field of view that is long in one direction and intersects the first field of view;
A road surface image generation method for generating a continuous image of a road surface by shooting a road surface while a vehicle having a road surface image is traveling,
A road surface photographing step of repeatedly photographing the road surface with a road surface photographing means;
A first control step of photographing a road surface with a first line camera at a first timing and photographing a road surface with a second line camera;
A second control step of photographing the road surface with the first line camera at the second timing after a predetermined time has elapsed from the first timing and photographing the road surface with the second line camera;
First matching point specification that specifies a first matching point that is a matching point between the first image captured by the first line camera at the first timing and the fourth image captured by the second line camera at the second timing Steps,
Second match point specification that specifies a second match point that is a match point between the second image captured by the second line camera at the first timing and the third image captured by the first line camera at the second timing Steps,
An image arranging step for arranging images taken by the road surface photographing means between the first timing and the second timing based on the positional relationship between the first coincidence point and the second coincidence point;
A road surface image generation method comprising:
走行しながら路面を撮影する路面画像撮影車両であって、
繰り返し路面を撮影する路面撮影手段と、
一方向に長い第1視野範囲内の路面を撮影する第1ラインカメラと、
一方向に長く、第1視野範囲と交差する第2視野範囲内の路面を撮影する第2ラインカメラと、
第1タイミングで第1ラインカメラで路面を撮影すると共に第2ラインカメラで路面を撮影する第1制御手段と、
第1タイミングから所定時間経過後の第2タイミングで第1ラインカメラで路面を撮影すると共に第2ラインカメラで路面を撮影する第2制御手段、
を有する路面画像撮影車両。
A road surface imaging vehicle for shooting a road surface while traveling,
Road surface photographing means for repeatedly photographing the road surface;
A first line camera that images a road surface within a first field of view that is long in one direction;
A second line camera that images a road surface in a second field of view that is long in one direction and intersects the first field of view;
First control means for photographing a road surface with a first line camera at a first timing and photographing a road surface with a second line camera;
Second control means for photographing the road surface with the first line camera and photographing the road surface with the second line camera at a second timing after a lapse of a predetermined time from the first timing;
A road surface imaging vehicle having
請求項5に記載の路面画像撮影車両によって撮影された画像から路面の連続画像を生成する路面画像生成装置であって、
第1タイミングで第1ラインカメラで撮影された第1画像と、第2タイミングで第2ラインカメラで撮影された第4画像との一致点である第1の一致点を特定する第1の一致点特定手段と、
第1タイミングで第2ラインカメラで撮影された第2画像と、第2タイミングで第1ラインカメラで撮影された第3画像との一致点である第2の一致点を特定する第2の一致点特定手段と、
第1の一致点と第2の一致点の位置関係に基づいて、第1タイミングから第2タイミングの間に路面撮影手段で撮影された画像を配列する画像配列手段、
を有する路面画像生成装置。
A road surface image generation device that generates a continuous image of a road surface from an image captured by the road surface image capturing vehicle according to claim 5,
A first coincidence that identifies a first coincidence point that is a coincidence point between the first image taken by the first line camera at the first timing and the fourth image taken by the second line camera at the second timing Point identification means;
A second coincidence that identifies a second coincidence point that is a coincidence point between the second image photographed by the second line camera at the first timing and the third image photographed by the first line camera at the second timing Point identification means;
Image arrangement means for arranging images photographed by the road surface photographing means between the first timing and the second timing based on the positional relationship between the first coincidence point and the second coincidence point;
A road surface image generating apparatus.
請求項5に記載の路面画像撮影車両によって撮影された画像から路面の連続画像を生成する路面画像生成方法であって、
第1タイミングで第1ラインカメラで撮影された第1画像と、第2タイミングで第2ラインカメラで撮影された第4画像との一致点である第1の一致点を特定する第1の一致点特定ステップと、
第1タイミングで第2ラインカメラで撮影された第2画像と、第2タイミングで第1ラインカメラで撮影された第3画像との一致点である第2の一致点を特定する第2の一致点特定ステップと、
第1の一致点と第2の一致点の位置関係に基づいて、第1タイミングから第2タイミングの間に路面撮影手段で撮影した画像を配列する画像配列ステップ、
を有する路面画像生成方法。
A road surface image generation method for generating a continuous image of a road surface from an image captured by a road surface image capturing vehicle according to claim 5,
A first coincidence that identifies a first coincidence point that is a coincidence point between the first image taken by the first line camera at the first timing and the fourth image taken by the second line camera at the second timing A point identification step;
A second coincidence that identifies a second coincidence point that is a coincidence point between the second image photographed by the second line camera at the first timing and the third image photographed by the first line camera at the second timing A point identification step;
An image arranging step for arranging images taken by the road surface photographing means between the first timing and the second timing based on the positional relationship between the first coincidence point and the second coincidence point;
A road surface image generation method comprising:
JP2010238994A 2010-10-25 2010-10-25 Road surface image generation vehicle, road surface image generation device, and road surface image generation method Active JP5613875B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010238994A JP5613875B2 (en) 2010-10-25 2010-10-25 Road surface image generation vehicle, road surface image generation device, and road surface image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238994A JP5613875B2 (en) 2010-10-25 2010-10-25 Road surface image generation vehicle, road surface image generation device, and road surface image generation method

Publications (2)

Publication Number Publication Date
JP2012093854A true JP2012093854A (en) 2012-05-17
JP5613875B2 JP5613875B2 (en) 2014-10-29

Family

ID=46387132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238994A Active JP5613875B2 (en) 2010-10-25 2010-10-25 Road surface image generation vehicle, road surface image generation device, and road surface image generation method

Country Status (1)

Country Link
JP (1) JP5613875B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016022952A1 (en) * 2014-08-08 2016-02-11 Applied Research Associates, Inc. Systems, methods, and apparatuses for measuring deformation of a surface

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11218417A (en) * 1998-02-02 1999-08-10 For A Co Ltd Measuring method for road surface roughness and device
JP2006214854A (en) * 2005-02-03 2006-08-17 Nagoya City Apparatus and method for creating road surface image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11218417A (en) * 1998-02-02 1999-08-10 For A Co Ltd Measuring method for road surface roughness and device
JP2006214854A (en) * 2005-02-03 2006-08-17 Nagoya City Apparatus and method for creating road surface image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016022952A1 (en) * 2014-08-08 2016-02-11 Applied Research Associates, Inc. Systems, methods, and apparatuses for measuring deformation of a surface
US10330465B2 (en) 2014-08-08 2019-06-25 Applied Research Associates, Inc. Systems, methods, and apparatuses for measuring deformation of a surface

Also Published As

Publication number Publication date
JP5613875B2 (en) 2014-10-29

Similar Documents

Publication Publication Date Title
JP5421072B2 (en) Approaching object detection system
CN101404122B (en) Driving support device, driving support method, and computer program
JP5091902B2 (en) Calibration index used for calibration of in-vehicle camera, in-vehicle camera calibration method and system using the calibration index, and program for the system
JP6413974B2 (en) Calibration apparatus, calibration method, and program
US11402628B2 (en) Vehicular display apparatus and vehicular display method
JP4341705B2 (en) In-vehicle image processing device
JP5178454B2 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
US9162621B2 (en) Parking support apparatus
JP6398675B2 (en) Image generation device
JP6778620B2 (en) Road marking device, road marking system, and road marking method
JP2011095321A (en) Image display device for vehicle
JP2006238131A (en) Vehicle periphery monitoring apparatus
JP2009265722A (en) Face direction sensing device
JP6407596B2 (en) Image processing apparatus and driving support system
JP2010136082A (en) Apparatus for monitoring vehicle surroundings, and method of determining position and attitude of camera
JP5613875B2 (en) Road surface image generation vehicle, road surface image generation device, and road surface image generation method
JP2020056717A (en) Position detection device
JP5830737B2 (en) Road surface image processing system and road surface image processing method
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP6960827B2 (en) Road surface area detector
JP2019133580A (en) Section line detection device, section line detection system, and section line detection method
JP6824759B2 (en) Bound line detection device, lane marking system, and lane marking method
JP2019151307A (en) Parking area detection device and parking area detection method
JP2018182373A (en) Overhead view video generating apparatus, overhead view video displaying apparatus, overhead view video generating method, and program
JP5072533B2 (en) Driving support device and driving support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140801

R150 Certificate of patent or registration of utility model

Ref document number: 5613875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250