JP2016145715A - Moving imaging device - Google Patents

Moving imaging device Download PDF

Info

Publication number
JP2016145715A
JP2016145715A JP2015021987A JP2015021987A JP2016145715A JP 2016145715 A JP2016145715 A JP 2016145715A JP 2015021987 A JP2015021987 A JP 2015021987A JP 2015021987 A JP2015021987 A JP 2015021987A JP 2016145715 A JP2016145715 A JP 2016145715A
Authority
JP
Japan
Prior art keywords
imaging
moving
unit
light
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015021987A
Other languages
Japanese (ja)
Other versions
JP6320315B2 (en
Inventor
佐藤 恒夫
Tsuneo Sato
恒夫 佐藤
森川 豊
Yutaka Morikawa
豊 森川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2015021987A priority Critical patent/JP6320315B2/en
Publication of JP2016145715A publication Critical patent/JP2016145715A/en
Application granted granted Critical
Publication of JP6320315B2 publication Critical patent/JP6320315B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Stroboscope Apparatuses (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image of an imaging surface while reducing an effect of natural light.SOLUTION: A moving imaging device 3 is installed in a mobile body, and images an imaging surface 4 in a moving path when the mobile body moves. An illumination part 12 applies illumination light of a wavelength region lower than a reference value of a wavelength region of illuminance around spectroscopic radiation distribution of natural light on the ground surface, on an imaging surface 4 from an oblique direction. An imaging part 11 acquires reflected light which the imaging surface 4 reflects the illumination light applied by the illumination part 12, and images the imaging surface 4.SELECTED DRAWING: Figure 2

Description

この発明は、移動体で移動しながら撮像する装置に関する。   The present invention relates to an apparatus for imaging while moving by a moving body.

特許文献1には、車両にCCDカメラと、距離計とを搭載し、路面撮影と距離データ取得とを同時に行い、CCDカメラで撮影した複数の路面画像をつなぎ合わせ、連続した路面画像を得ることが記載されている。特許文献1には、路面画像と、付随する距離データと合わせて、ひび割れ箇所を特定することが記載されている。   In Patent Document 1, a CCD camera and a distance meter are mounted on a vehicle, and road surface photographing and distance data acquisition are simultaneously performed, and a plurality of road surface images photographed by the CCD camera are connected to obtain a continuous road surface image. Is described. Patent Document 1 describes that a crack location is specified together with a road surface image and accompanying distance data.

特許文献2には、車両に、日向領域撮影用に調整された日向領域用カメラと、日陰領域撮影用に調整された日陰領域用カメラと、日向と日陰との中間用に調整された中間カメラとで、同じ路面を撮影し、3者の画像を比較し、路面のひび割れを検出することが記載されている。   Japanese Patent Application Laid-Open No. H10-260707 discloses a vehicle for a sunny area adjusted for shooting a sunny area, a shaded area camera adjusted for shooting a shaded area, and an intermediate camera adjusted for intermediate between the sunny and shaded areas. And, it is described that the same road surface is photographed, three images are compared, and a crack on the road surface is detected.

特開平9−96515号公報JP-A-9-96515 特開2011−90367号公報JP 2011-90367 A

特許文献1に記載された技術では、自然光で照らされた路面をCCDカメラで撮像しているため、自然光の影響を受けてしまい、画像の解像度やコントラストが低くなってしまう。
特許文献2に記載された技術では、特許文献1に記載された技術と同様に自然光の影響を受けてしまう。また、自然光の状況に合わせて、日向領域用カメラ、日陰領域用カメラ、中間カメラの調整を行う必要があり、作業者の作業効率が落ちてしまう。
この発明は、自然光の影響を減らして撮像面の溝等の画像を得ることを目的とする。
In the technique described in Patent Document 1, since a road surface illuminated with natural light is imaged by a CCD camera, it is affected by natural light, and the resolution and contrast of the image are lowered.
The technique described in Patent Document 2 is affected by natural light in the same manner as the technique described in Patent Document 1. In addition, it is necessary to adjust the camera for the sunlit area, the camera for the shaded area, and the intermediate camera in accordance with the situation of natural light, which reduces the work efficiency of the operator.
An object of the present invention is to obtain an image such as a groove on an imaging surface by reducing the influence of natural light.

この発明に係る移動撮像装置は、
移動体に設置され、前記移動体の移動時に移動経路にある撮像面を撮像する移動撮像装置であり、
自然光の地表における分光放射分布において照度が前後の波長領域に比べて基準値以上低い波長領域の照明光を、前記撮像面に斜め方向から当てる照明部と、
前記照明部が当てた照明光を前記撮像面が反射した反射光を取得して、前記撮像面を撮像する撮像部と
を備える。
The mobile imaging device according to the present invention is:
A moving imaging apparatus that is installed on a moving body and images an imaging surface in a moving path when the moving body moves,
In the spectral radiation distribution on the ground surface of natural light, the illumination unit that illuminates illumination light in a wavelength region that is lower than a reference value compared to the front and back wavelength regions by an oblique direction to the imaging surface;
An imaging unit configured to acquire reflected light reflected by the imaging surface with the illumination light applied by the illumination unit and to image the imaging surface.

この発明では、自然光の地表における分光放射分布において照度が低い波長領域の照明光を当てる。そのため、自然光の影響を減らして撮像面の画像を得ることが可能である。また、照明光を斜めから当てるため、撮像面の溝等の輝度差を大きくした画像を得ることが可能である。   In the present invention, illumination light in a wavelength region with low illuminance is applied in the spectral radiation distribution on the ground surface of natural light. Therefore, it is possible to obtain an image on the imaging surface while reducing the influence of natural light. Further, since the illumination light is applied obliquely, it is possible to obtain an image with a large luminance difference such as a groove on the imaging surface.

実施の形態1に係る移動撮像システム1の構成図。1 is a configuration diagram of a mobile imaging system 1 according to Embodiment 1. FIG. 実施の形態1に係る移動撮像装置3の構成図。1 is a configuration diagram of a mobile imaging device 3 according to Embodiment 1. FIG. 凹凸のある撮像面4に照明光を垂直に照射した場合と、斜めに照射した場合とについて、撮像面4を撮像した画像を模式的に描いた図。The figure which drawn typically the image which imaged the imaging surface 4 about the case where irradiation light is irradiated to the imaging surface 4 with an unevenness | corrugation perpendicularly | vertically, and the case where it irradiates diagonally. 照明光の入射角θと、撮像面4の溝との関係を示す図。The figure which shows the relationship between the incident angle (theta) of illumination light, and the groove | channel of the imaging surface. 自然光の分光照射分布を示す図。The figure which shows the spectral irradiation distribution of natural light. 照明光の形状を示す図。The figure which shows the shape of illumination light. ラインセンサ111と光源部121との配置の説明図。Explanatory drawing of arrangement | positioning with the line sensor 111 and the light source part 121. FIG. 実施の形態1に係る移動撮像装置3の動作を示すフローチャート。5 is a flowchart showing the operation of the mobile imaging device 3 according to the first embodiment. 移動方向の解像度を高くする場合の移動体の移動時間と移動距離の関係を示す図。The figure which shows the relationship between the movement time and movement distance of a moving body in the case of making the resolution of a moving direction high. 図9に示す制御方法で得られる画像の説明図。Explanatory drawing of the image obtained with the control method shown in FIG. 輝度方向の解像度を高くする場合の移動体の移動時間と移動距離の関係を示す図。The figure which shows the relationship between the movement time and movement distance of a moving body in the case of making the resolution of a brightness direction high. 図11に示す制御方法で得られる画像の説明図。Explanatory drawing of the image obtained with the control method shown in FIG. 実施の形態2に係る移動撮像装置3の構成図。FIG. 3 is a configuration diagram of a mobile imaging device 3 according to a second embodiment. 実施の形態2に係るTDIセンサ112の構成図。FIG. 4 is a configuration diagram of a TDI sensor 112 according to a second embodiment. TDIセンサ112の駆動原理の説明図。Explanatory drawing of the drive principle of the TDI sensor 112. FIG. TDIセンサ112の駆動原理の説明図。Explanatory drawing of the drive principle of the TDI sensor 112. FIG. TDIセンサ112を使用した時の撮像エリアと線状の照明光との関係を示す図。The figure which shows the relationship between the imaging area at the time of using the TDI sensor 112, and linear illumination light. 実施の形態3に係る移動撮像装置3の構成図。FIG. 6 is a configuration diagram of a mobile imaging device 3 according to a third embodiment. 実施の形態3に係る計測部16の構成図。FIG. 6 is a configuration diagram of a measurement unit 16 according to a third embodiment. TDIセンサ112の移動の様子を模示す図。The figure which illustrates the mode of the movement of the TDI sensor. 移動体2の移動ルートを示す図。The figure which shows the movement route of the mobile body 2. FIG. 実施の形態1から3に係る移動撮像装置3のハードウェア構成例を示す図。FIG. 4 is a diagram illustrating a hardware configuration example of a mobile imaging device 3 according to the first to third embodiments.

実施の形態1.
***構成の説明***
図1は、実施の形態1に係る移動撮像システム1の構成図である。
移動撮像システム1は、移動体2と、移動撮像装置3とを備える。
Embodiment 1 FIG.
*** Explanation of configuration ***
FIG. 1 is a configuration diagram of a mobile imaging system 1 according to the first embodiment.
The moving imaging system 1 includes a moving body 2 and a moving imaging device 3.

移動体2は、車、電車、台車、ロボット、リモコン車両、エレベータのかご等の移動する装置である。移動体2は、移動する装置であれば他の装置であってもよい。   The moving body 2 is a moving device such as a car, a train, a carriage, a robot, a remote control vehicle, and an elevator car. The moving body 2 may be another device as long as it moves.

移動撮像装置3は、移動体2に設置され、移動体2の移動時に移動経路にある撮像面4を撮像する。移動撮像装置3は、移動体2から分離可能になっていてもよいし、一体化され分離不可能になっていてもよい。   The moving imaging device 3 is installed on the moving body 2 and images the imaging surface 4 on the moving path when the moving body 2 moves. The mobile imaging device 3 may be separable from the moving body 2 or may be integrated and inseparable.

図2は、実施の形態1に係る移動撮像装置3の構成図である。
移動撮像装置3は、中央制御部10と、撮像部11と、照明部12と、記憶部13と、移動距離計測部14と、制御部15とを備える。
中央制御部10は、移動撮像装置3の他の構成要素を制御する。
撮像部11は、撮像面4を撮像する。撮像部11は、撮像面4で反射した光を光電変換する複数のラインセンサ111を有し、各ラインセンサ111により撮像面4を撮像する。ここでは、撮像部11は、2つのラインセンサ111を有する。
照明部12は、撮像面4に照明光を当てる。照明部12は、ラインセンサ111毎に、光源部121を有している。ここでは、照明部12は、2つのラインセンサ111それぞれとペアとなる2つの光源部121を有している。各光源部121は、光源122と、シリンドリカルレンズ123とを有する。光源122は、LED(Light Emitting Diode)光源、又は、LD(Laser Diode)光源である。
記憶部13は、撮像部11が撮像した画像を記憶する記憶装置である。
移動距離計測部14は、移動体2の移動距離を計測する。
制御部15は、移動距離計測部14が計測した移動距離を参照して、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。
FIG. 2 is a configuration diagram of the mobile imaging device 3 according to the first embodiment.
The mobile imaging device 3 includes a central control unit 10, an imaging unit 11, an illumination unit 12, a storage unit 13, a movement distance measurement unit 14, and a control unit 15.
The central control unit 10 controls other components of the mobile imaging device 3.
The imaging unit 11 images the imaging surface 4. The imaging unit 11 includes a plurality of line sensors 111 that photoelectrically convert light reflected by the imaging surface 4, and images the imaging surface 4 by each line sensor 111. Here, the imaging unit 11 includes two line sensors 111.
The illumination unit 12 illuminates the imaging surface 4 with illumination light. The illumination unit 12 has a light source unit 121 for each line sensor 111. Here, the illumination unit 12 includes two light source units 121 that are paired with the two line sensors 111, respectively. Each light source unit 121 includes a light source 122 and a cylindrical lens 123. The light source 122 is an LED (Light Emitting Diode) light source or an LD (Laser Diode) light source.
The storage unit 13 is a storage device that stores an image captured by the imaging unit 11.
The moving distance measuring unit 14 measures the moving distance of the moving body 2.
The control unit 15 refers to the movement distance measured by the movement distance measurement unit 14 and controls at least one of the movement speed of the moving body 2 and the imaging timing of each line sensor 111.

図3は、凹凸のある撮像面4に照明光を垂直に照射した場合と、斜めに照射した場合とについて、撮像面4を撮像した画像を模式的に描いた図である。
(a)に示すように、照明光を垂直に照射した場合、照明光は撮像面4正面で反射され、その垂直距離に応じた画像が得られる。
(b)に示すように、照明光を斜めに照射した場合、照射光は撮像面4のエッジで反射することと、撮像面4のエッジで影となることと、撮像面4の表面で反射することとがある。そのため、得られる画像は、照明光を垂直に照射した場合に比べて溝部分の輝度の差が大きくなる。
FIG. 3 is a diagram schematically illustrating images obtained by imaging the imaging surface 4 when the illumination surface is irradiated with illumination light vertically and when it is irradiated obliquely.
As shown to (a), when illumination light is irradiated perpendicularly, illumination light is reflected by the imaging surface 4 front, and the image according to the perpendicular distance is obtained.
As shown in (b), when the illumination light is irradiated obliquely, the irradiation light is reflected at the edge of the imaging surface 4, becomes a shadow at the edge of the imaging surface 4, and is reflected at the surface of the imaging surface 4. There is something to do. For this reason, in the obtained image, the difference in the brightness of the groove portion is larger than when the illumination light is irradiated vertically.

図4は、照明光の入射角θと、撮像面4の溝との関係を示す図である。
撮像面4の溝は、高さHであり、長さLであるとする。この場合、照明光の入射角θは、H・tanθ<Lであれば、入射した照明光が溝の底まで到達する。溝の高さHと長さLをと想定し、溝の底まで到達する入射角θとなるように照明光を照射することで、撮像面4の凹凸を、輝度差を強調して撮像することができる。
FIG. 4 is a diagram illustrating a relationship between the incident angle θ of the illumination light and the groove of the imaging surface 4.
The groove of the imaging surface 4 has a height H and a length L. In this case, when the incident angle θ of the illumination light is H · tan θ <L, the incident illumination light reaches the bottom of the groove. Assuming the height H and length L of the groove, the illumination light is irradiated so that the incident angle θ reaches the bottom of the groove, thereby imaging the unevenness of the imaging surface 4 with the brightness difference emphasized. be able to.

そこで、照明部12は、照明光の入射角θがH・tanθ<Lとなるように、照明光を撮像面4に斜め方向から当てる。つまり、照明部12は、照明光の撮像面4に対する入射角を、照明光が撮像面4に形成された溝の底まで到達する角度とする。   Therefore, the illumination unit 12 irradiates the illumination light to the imaging surface 4 from an oblique direction so that the incident angle θ of the illumination light satisfies H · tan θ <L. That is, the illumination unit 12 sets the incident angle of the illumination light to the imaging surface 4 as an angle at which the illumination light reaches the bottom of the groove formed on the imaging surface 4.

図5は、自然光の分光照射分布を示す図である。
自然光とは、太陽光のことである。自然光は、地上に到達するまでに大気により吸収される。そのため、地上における自然光には、分光照射分布が低い波長領域が存在する。このような波長領域の照明光を使えば、自然光の影響を低減することができる。LED光及びLD光は、波長領域の限られた光であるので、目的に合った波長の光源を選択することで、自然光の影響を抑えるができる。
FIG. 5 is a diagram showing a spectral irradiation distribution of natural light.
Natural light is sunlight. Natural light is absorbed by the atmosphere before reaching the ground. Therefore, natural light on the ground has a wavelength region with a low spectral irradiation distribution. If illumination light in such a wavelength region is used, the influence of natural light can be reduced. Since LED light and LD light are light with a limited wavelength region, the influence of natural light can be suppressed by selecting a light source having a wavelength suitable for the purpose.

そこで、照明部12は、自然光の地表における分光放射分布において照度が前後の波長領域に比べて基準値以上低い波長領域を撮像面4に当てる。基準値とは、例えば、0.1〜0.3[Wm−2nm−1]である。例えば、950nm付近、つまり930nm以上970nm以下の波長領域等が分光放射分布において照度が前後の波長領域に比べて基準値以上低い波長領域である。つまり、ここでは、照明部12は、930nm以上970nm以下に含まれる波長領域の照明光を撮像面4に当てる。 Therefore, the illumination unit 12 applies a wavelength region whose illuminance is lower than the reference wavelength region by a reference value or more in the spectral radiation distribution on the ground surface of natural light to the imaging surface 4. The reference value is, for example, 0.1 to 0.3 [Wm −2 nm −1 ]. For example, a wavelength region of around 950 nm, that is, a wavelength region of 930 nm to 970 nm is a wavelength region in which the illuminance is lower than the reference value in the spectral radiation distribution by more than a reference value. That is, here, the illumination unit 12 irradiates the imaging surface 4 with illumination light in a wavelength region included in a range from 930 nm to 970 nm.

図6は、照明光の形状を示す図である。
ラインセンサ111により撮像面4を撮像するには、線状の照明が必要となる。LED光源及びLD光源は、点光源である。そこで、照明部12は、光源122から出力された光を、一方向に集光するシリンドリカルレンズ123により線状光とした照明光を撮像面4に当てる。
なお、照明部12は、撮像面4の照度が足らない場合には、複数の光源122を用いて、各光源122の照射位置が一致するように調整を行う。
FIG. 6 is a diagram showing the shape of illumination light.
In order to image the imaging surface 4 with the line sensor 111, linear illumination is required. The LED light source and the LD light source are point light sources. Therefore, the illuminating unit 12 irradiates the imaging surface 4 with illumination light that is converted into linear light by the cylindrical lens 123 that condenses the light output from the light source 122 in one direction.
In addition, when the illumination intensity of the imaging surface 4 is insufficient, the illumination unit 12 uses a plurality of light sources 122 and performs adjustment so that the irradiation positions of the respective light sources 122 coincide with each other.

図7は、ラインセンサ111と光源部121との配置の説明図である。
ラインセンサ111と光源部121とは、ペアをなしている。ここでは、ラインセンサ111と光源部121とは、2つずつであるため、ペア1とペア2との2つのペアがある。
各ペアは、移動体2の移動方向に沿って、距離Lずつ離れて配置される。ここでは、ペア1とペア2とのラインセンサ111が、移動体2の移動方向に沿って、距離Lだけ離れて配置されている。そして、各ペアの光源部121によって照明光の照射方向が異なるように配置される。ここでは、ペア1とペア2との光源部121が、反対方向から照明光を撮像面4に当てるように配置されている。
FIG. 7 is an explanatory diagram of the arrangement of the line sensor 111 and the light source unit 121.
The line sensor 111 and the light source unit 121 form a pair. Here, since there are two line sensors 111 and two light source units 121, there are two pairs of pair 1 and pair 2.
Each pair is arranged at a distance L along the moving direction of the moving body 2. Here, the line sensors 111 of the pair 1 and the pair 2 are arranged at a distance L along the moving direction of the moving body 2. And it arrange | positions so that the irradiation direction of illumination light may differ with the light source parts 121 of each pair. Here, the light sources 121 of the pair 1 and the pair 2 are arranged so that the illumination light is applied to the imaging surface 4 from opposite directions.

***動作の説明***
図8は、実施の形態1に係る移動撮像装置3の動作を示すフローチャートである。
実施の形態1に係る移動撮像装置3の動作は、実施の形態1に係る移動撮像方法に相当する。また、実施の形態1に係る移動撮像装置3の動作は、実施の形態1に係る移動撮像プログラムの処理に相当する。
*** Explanation of operation ***
FIG. 8 is a flowchart showing the operation of the mobile imaging device 3 according to the first embodiment.
The operation of the mobile imaging device 3 according to the first embodiment corresponds to the mobile imaging method according to the first embodiment. The operation of the mobile imaging device 3 according to the first embodiment corresponds to the processing of the mobile imaging program according to the first embodiment.

移動撮像装置3は、移動体2が移動を開始した場合、又は、移動体2が移動を開始し動作開始の信号が入力された場合に、動作を開始する。
移動撮像装置3が動作を開始すると、S1の照明処理で、照明部12が、各光源部121により撮像面4への照明光の照射を開始し、S2の移動距離計測処理で、移動距離計測部14が、移動体2の移動距離を計測を開始する。
S3の制御処理では、制御部15が、S2で計測された移動距離を参照して、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。ここでは、各ラインセンサ111の撮像タイミングが制御されるとする。S4の撮像処理では、撮像部11が、S3で制御された撮像タイミングに従い、ラインセンサ111により撮像面4を撮像して、得られた画像を記憶部13に格納する。
The moving imaging device 3 starts operation when the moving body 2 starts moving, or when the moving body 2 starts moving and an operation start signal is input.
When the mobile imaging device 3 starts operating, the illumination unit 12 starts irradiating illumination light to the imaging surface 4 by each light source unit 121 in the illumination process of S1, and the travel distance measurement is performed in the travel distance measurement process of S2. The unit 14 starts measuring the moving distance of the moving body 2.
In the control process in S3, the control unit 15 refers to the movement distance measured in S2 and controls at least one of the movement speed of the moving body 2 and the imaging timing of each line sensor 111. Here, it is assumed that the imaging timing of each line sensor 111 is controlled. In the imaging process of S4, the imaging unit 11 images the imaging surface 4 with the line sensor 111 according to the imaging timing controlled in S3, and stores the obtained image in the storage unit 13.

S3の制御処理について説明する。
S3の制御処理には、移動方向の解像度を高くする制御方法と、輝度方向の解像度を高くする制御方法との2つの制御方法がある。
The control process of S3 will be described.
The control process in S3 includes two control methods: a control method for increasing the resolution in the moving direction and a control method for increasing the resolution in the luminance direction.

移動方向の解像度を高くする制御方法を説明する。
図9は、移動方向の解像度を高くする場合の移動体の移動時間と移動距離の関係を示す図である。
図9において、Tnは、撮像タイミングを示す。L1nは、撮像タイミングTnにおけるペア1の撮像位置であり、L2nは、撮像タイミングTnにおけるペア2の撮像位置である。ペア1のラインセンサ111とペア2のラインセンサ111とは、距離Lだけ離れている。
時刻T1には、ペア1により位置L11の画像が得られ、ペア2により位置L21の画像が得られる。時刻T2には、ペア1により位置L12の画像が得られ、ペア2により位置L22の画像が得られる。
A control method for increasing the resolution in the moving direction will be described.
FIG. 9 is a diagram illustrating the relationship between the moving time and the moving distance of the moving body when the resolution in the moving direction is increased.
In FIG. 9, Tn indicates the imaging timing. L1n is an imaging position of pair 1 at imaging timing Tn, and L2n is an imaging position of pair 2 at imaging timing Tn. The pair 1 line sensor 111 and the pair 2 line sensor 111 are separated by a distance L.
At time T1, an image at position L11 is obtained by pair 1 and an image at position L21 is obtained by pair 2. At time T2, an image at position L12 is obtained by pair 1 and an image at position L22 is obtained by pair 2.

制御部15は、ペア2の撮像位置が、前後のペア1の撮像位置の中央に来るように、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。
例えば、位置L22であれば、位置L14と位置L15との中央となるように、制御部15は、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。
The control unit 15 controls at least one of the moving speed of the moving body 2 and the imaging timing of each line sensor 111 so that the imaging position of the pair 2 comes to the center of the imaging positions of the pair 1 before and after.
For example, at the position L22, the control unit 15 controls at least one of the moving speed of the moving body 2 and the imaging timing of each line sensor 111 so as to be the center between the position L14 and the position L15.

図10は、図9に示す制御方法で得られる画像の説明図である。
(a)に示すように、ペア1によって撮像された画像と、ペア2によって撮像された画像とは、離散的な画像である。ペア2によって撮像された画像の撮像位置が、ペア1によって撮像された2つの画像の撮像位置の中央になるように制御されている。そのため、(b)に示すように、ペア1によって撮像された画像と、ペア2によって撮像された画像とを合成すると、倍の線密度の画像、すなわち、移動方向の解像度が高い画像が得られる。
FIG. 10 is an explanatory diagram of an image obtained by the control method shown in FIG.
As shown to (a), the image imaged by the pair 1 and the image imaged by the pair 2 are discrete images. The imaging position of the image captured by the pair 2 is controlled to be the center of the imaging positions of the two images captured by the pair 1. Therefore, as shown in (b), when the image picked up by pair 1 and the image picked up by pair 2 are combined, an image having a double line density, that is, an image having a high resolution in the moving direction is obtained. .

輝度方向の解像度を高くする制御方法を説明する。
図11は、輝度方向の解像度を高くする場合の移動体の移動時間と移動距離の関係を示す図である。
図11において、T1nは、ペア1の撮像タイミングであり、T2nは、ペア2の撮像タイミングである。Lnは、ペア1及びペア2の撮像位置である。ペア1のラインセンサ111とペア2のラインセンサ111とは、距離Lだけ離れている。
時刻T21には、ペア2により位置L1の画像が得られ、時刻T13には、ペア1により位置L1の画像が得られる。時刻T22には、ペア2により位置L2の画像が得られ、時刻T14には、ペア1により位置L2の画像が得られる。
A control method for increasing the resolution in the luminance direction will be described.
FIG. 11 is a diagram illustrating the relationship between the moving time and the moving distance of the moving body when the resolution in the luminance direction is increased.
In FIG. 11, T1n is the imaging timing of pair 1 and T2n is the imaging timing of pair 2. Ln is the imaging position of pair 1 and pair 2. The pair 1 line sensor 111 and the pair 2 line sensor 111 are separated by a distance L.
At time T21, an image at position L1 is obtained by pair 2, and at time T13, an image at position L1 is obtained by pair 1. At time T22, an image at position L2 is obtained by pair 2, and at time T14, an image at position L2 is obtained by pair 1.

制御部15は、ペア1の撮像位置と、ペア2の撮像位置とが一致するように、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。
例えば、位置L1であれば、ペア1の時刻T13の撮像位置=ペア2の時刻T21の撮像位置となるように、制御部15は、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。
The control unit 15 controls at least one of the moving speed of the moving body 2 and the imaging timing of each line sensor 111 so that the imaging position of the pair 1 matches the imaging position of the pair 2.
For example, in the case of the position L1, the control unit 15 sets the moving speed of the moving body 2 and the imaging timing of each line sensor 111 so that the imaging position at time T13 of pair 1 = the imaging position at time T21 of pair 2. And at least one of them.

図12は、図11に示す制御方法で得られる画像の説明図である。
(a)に示すように、ペア1によって撮像された画像と、ペア2によって撮像された画像とは、離散的な画像である。ペア1によって撮像された画像の撮像位置と、ペア2によって撮像された画像の撮像位置とが一致するように制御されている。そして、図7に示すように、ペア1とペア2とでは、光源部121が反対方向から照明光を撮像面4に当てるように配置されている。そのため、(b)に示すように、ペア1によって撮像された画像と、ペア2によって撮像された画像とを合成すると、輝度差が強調された画像、すなわち、輝度方向の解像度が高い画像が得られる。
FIG. 12 is an explanatory diagram of an image obtained by the control method shown in FIG.
As shown to (a), the image imaged by the pair 1 and the image imaged by the pair 2 are discrete images. Control is performed so that the imaging position of the image captured by pair 1 matches the imaging position of the image captured by pair 2. Then, as shown in FIG. 7, in the pair 1 and the pair 2, the light source unit 121 is arranged so as to irradiate the imaging light 4 with the illumination light from the opposite direction. Therefore, as shown in (b), when the image picked up by pair 1 and the image picked up by pair 2 are combined, an image in which the luminance difference is emphasized, that is, an image with high luminance direction resolution is obtained. It is done.

***効果の説明***
以上のように、実施の形態1に係る移動撮像システム1は、自然光の地表における分光放射分布において照度が前後の波長領域に比べて基準値以上低い波長領域を撮像面4に当てる。そのため、自然光の影響を減らして撮像面の画像を得ることが可能である。その結果、昼夜問わず安定した撮像が可能となる。
*** Explanation of effects ***
As described above, the mobile imaging system 1 according to Embodiment 1 applies a wavelength region whose illuminance is lower than the front and back wavelength regions by a reference value or more to the imaging surface 4 in the spectral radiation distribution on the ground surface of natural light. Therefore, it is possible to obtain an image on the imaging surface while reducing the influence of natural light. As a result, stable imaging can be performed regardless of day or night.

また、実施の形態1に係る移動撮像システム1は、照明光の入射角θがH・tanθ<Lとなるように、照明光を撮像面4に斜め方向から当てる。そのため、撮像面4の凹凸を、輝度差を強調して撮像することができる。   In addition, the mobile imaging system 1 according to Embodiment 1 applies illumination light to the imaging surface 4 from an oblique direction so that the incident angle θ of illumination light satisfies H · tan θ <L. Therefore, the unevenness of the imaging surface 4 can be imaged with the brightness difference emphasized.

また、実施の形態1に係る移動撮像システム1は、点光源をシリンドリカルレンズ123により線状光とした照明光を撮像面4に当て、その反射光によりラインセンサ111で撮像面4を撮像する。そのため、鮮明な線状の画像を得ることができる。   In addition, the moving imaging system 1 according to the first embodiment illuminates the imaging surface 4 with illumination light in which a point light source is linear light by the cylindrical lens 123, and images the imaging surface 4 by the line sensor 111 using the reflected light. Therefore, a clear linear image can be obtained.

また、実施の形態1に係る移動撮像システム1は、ラインセンサ111と光源部121とのペアを複数配置し、移動体2の移動速度と各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御する。そのため、移動方向の解像度、又は、輝度方向の解像度を高くした画像を得ることが可能である。   In addition, the mobile imaging system 1 according to the first embodiment arranges a plurality of pairs of the line sensor 111 and the light source unit 121, and controls at least one of the moving speed of the moving body 2 and the imaging timing of each line sensor 111. To do. For this reason, it is possible to obtain an image in which the resolution in the moving direction or the resolution in the luminance direction is increased.

なお、上記説明では、ラインセンサ111と光源部121とのペアが2つの場合を説明した。しかし、ペアは3つ以上であってもよい。
この場合に、移動方向の解像度を高くするには、各ラインセンサ111により撮像される位置が等間隔になるように、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御すればよい。また、輝度方向の解像度を高くするには、各ラインセンサ111により撮像される位置が一致するように、移動体2の移動速度と、各ラインセンサ111の撮像タイミングとの少なくともいずれかを制御すればよい。
In the above description, the case where there are two pairs of the line sensor 111 and the light source unit 121 has been described. However, there may be three or more pairs.
In this case, in order to increase the resolution in the moving direction, at least one of the moving speed of the moving body 2 and the imaging timing of each line sensor 111 so that the positions imaged by each line sensor 111 are equally spaced. What is necessary is just to control. In order to increase the resolution in the luminance direction, at least one of the moving speed of the moving body 2 and the imaging timing of each line sensor 111 is controlled so that the positions imaged by each line sensor 111 coincide. That's fine.

また、ペアを3つ以上用いれば、移動方向の解像度を高くしつつ、輝度方向の解像度を高くすることも可能である。   If three or more pairs are used, it is possible to increase the resolution in the luminance direction while increasing the resolution in the moving direction.

実施の形態2.
実施の形態2では、ラインセンサ111に代えて、TDI(Time Delay Integration)センサ112を用いる点が、実施の形態1と異なる。実施の形態2では、この異なる点について説明する。
Embodiment 2. FIG.
The second embodiment is different from the first embodiment in that a TDI (Time Delay Integration) sensor 112 is used instead of the line sensor 111. In the second embodiment, this different point will be described.

***構成の説明***
図13は、実施の形態2に係る移動撮像装置3の構成図である。
図13に示す移動撮像装置3は、撮像部11の構成が、図2に示す移動撮像装置3と異なる。
撮像部11は、TDIセンサ112を有し、照明部12が撮像面4に当てた照明光の反射光を、TDIセンサ112により変換して撮像面4を撮像する。
*** Explanation of configuration ***
FIG. 13 is a configuration diagram of the mobile imaging device 3 according to the second embodiment.
The moving imaging apparatus 3 shown in FIG. 13 differs from the moving imaging apparatus 3 shown in FIG.
The imaging unit 11 includes a TDI sensor 112, and the TDI sensor 112 converts reflected light of the illumination light applied to the imaging surface 4 by the illumination unit 12 and images the imaging surface 4.

図14は、実施の形態2に係るTDIセンサ112の構成図である。
TDIセンサ112は、撮像面4で反射した光を光電変換するラインセンサ111のようなセンサ113が複数連結した構成である。ここでは、TDIセンサ112は、センサ113が移動体2の移動方向に沿って、複数連結され、構成されている。
FIG. 14 is a configuration diagram of the TDI sensor 112 according to the second embodiment.
The TDI sensor 112 has a configuration in which a plurality of sensors 113 such as a line sensor 111 that photoelectrically converts light reflected by the imaging surface 4 are connected. Here, the TDI sensor 112 is configured by connecting a plurality of sensors 113 along the moving direction of the moving body 2.

***動作の説明***
図15及び図16は、TDIセンサ112の駆動原理の説明図である。
図15に示すように、TDIセンサ112により、「EDCBAZYXW」と書かれた原稿114を撮像する。原稿114における文字の間隔は、TDIセンサ112における各センサ113と1:1に対応するものとする。つまり、あるセンサ113が文字「E」を撮像している際、隣のセンサ113は文字「D」を撮像している状態になる。
*** Explanation of operation ***
15 and 16 are explanatory diagrams of the driving principle of the TDI sensor 112. FIG.
As shown in FIG. 15, the TDI sensor 112 captures an image of a document 114 on which “EDCBAZYXW” is written. It is assumed that the character spacing in the document 114 corresponds to the sensors 113 in the TDI sensor 112 and 1: 1. That is, when a sensor 113 is imaging the letter “E”, the adjacent sensor 113 is imaging the letter “D”.

図16に示すように、位置1ではTDIセンサ112が「ABCDE」の5文字が撮像され、電荷が蓄積される。位置1から位置2へTDIセンサ112が移動する間は電荷の蓄積は行われず、位置1で蓄積した電荷が隣のセンサに転送される。この際、文字「E」を撮像したセンサ113の電化は、センサ外に撮像信号として出力される。
位置2では、撮像する位置が隣に移っているので「ZABCD」の5文字が撮像される。位置1で撮像された電荷が転送されているので、文字「A」を撮像するセンサ113は位置1で撮像した電荷に加えて位置2で撮像した電荷も蓄積される。文字「B」「C」「D」についても同様である。
As shown in FIG. 16, at position 1, the TDI sensor 112 images five characters “ABCDE” and accumulates electric charges. While the TDI sensor 112 moves from the position 1 to the position 2, no charge is accumulated, and the charge accumulated at the position 1 is transferred to the adjacent sensor. At this time, the electrification of the sensor 113 that images the character “E” is output as an imaging signal outside the sensor.
At position 2, since the position to be imaged has moved to the next, five characters “ZABCD” are imaged. Since the charge imaged at the position 1 is transferred, the sensor 113 that images the character “A” accumulates the charge imaged at the position 2 in addition to the charge imaged at the position 1. The same applies to the characters “B”, “C”, and “D”.

このように、位置を変えながら原稿を撮像することで、同じ文字を複数回露光して撮像したのと同じ効果を得ることができる。図16の例では、5回露光したと同じ効果を得られる。これにより、撮像時のノイズを低減することが可能となる。   In this way, by capturing an image of a document while changing its position, the same effect can be obtained as when the same character is exposed multiple times and captured. In the example of FIG. 16, the same effect can be obtained as when the exposure is performed five times. As a result, noise during imaging can be reduced.

この効果を得るためには、各センサ113によって撮像される位置、つまり図15及び図16の例では文字が一致するように、移動体2の移動距離とセンサ113の撮像タイミングとを制御する必要がある。つまり、「移動速度×撮像時刻差分=センサピッチ×C」(式1)の関係を満たす必要がある。
ここで、移動速度は、移動体2が移動する速度であり、言い換えればセンサ113が移動する速度である。撮像時刻差分は、隣り合うセンサ113の撮像タイミングの差分である。センサピッチは、図14に示すように、各センサ113の移動方向の中心位置間の距離である。Cは、定数であり、整数である。
制御部15は、上記関係を満たすように、移動体2の移動速度と、各センサ113の撮像タイミングとの少なくともいずれかを制御する。なお、式1の右辺は定数であるので、移動速度が変化すれば、それに合わせて撮像時刻差分を変化させなければならない。
In order to obtain this effect, it is necessary to control the moving distance of the moving body 2 and the imaging timing of the sensor 113 so that the positions imaged by the sensors 113, that is, the characters in the examples of FIGS. There is. That is, it is necessary to satisfy the relationship of “moving speed × imaging time difference = sensor pitch × C” (Equation 1).
Here, the moving speed is the speed at which the moving body 2 moves, in other words, the speed at which the sensor 113 moves. The imaging time difference is a difference in imaging timing between adjacent sensors 113. As shown in FIG. 14, the sensor pitch is a distance between the center positions in the moving direction of the sensors 113. C is a constant and is an integer.
The control unit 15 controls at least one of the moving speed of the moving body 2 and the imaging timing of each sensor 113 so as to satisfy the above relationship. Since the right side of Equation 1 is a constant, if the moving speed changes, the imaging time difference must be changed accordingly.

図17は、TDIセンサ112を使用した時の撮像エリアと線状の照明光との関係を示す図である。
TDIセンサ112は、複数のセンサ113を連結させたものである。そのため、単一のセンサ113に比べ、連結方向に撮像エリアが広くなる。
線状の照明光とTDIセンサ112とは、(a)に示すように、線状の照明光と撮像エリアとが平行になるアライメント1とすることが理想である。しかし、(b)(c)に示すように線状の照明光と撮像エリアとが平行にならないアライメント2,3になってしまうこともある。しかし、TDIセンサ112は連結方向に撮像エリアが広いので、アライメントの多少のずれもカバーできる。
FIG. 17 is a diagram illustrating the relationship between the imaging area and the linear illumination light when the TDI sensor 112 is used.
The TDI sensor 112 is a combination of a plurality of sensors 113. Therefore, compared with the single sensor 113, the imaging area is widened in the connecting direction.
Ideally, the linear illumination light and the TDI sensor 112 are aligned 1 so that the linear illumination light and the imaging area are parallel to each other, as shown in FIG. However, as shown in (b) and (c), the linear illumination light and the imaging area may become alignments 2 and 3 which are not parallel to each other. However, since the TDI sensor 112 has a wide imaging area in the connecting direction, it can cover a slight misalignment.

***効果の説明***
以上のように、実施の形態2に係る移動撮像システム1は、TDIセンサ112を使用して、移動速度と撮像タイミングとを制御する。そのため、撮像面の同じ位置を複数回露光撮像した効果を得ることができる。その結果、画像の濃淡が強調され、コントラストの高い画像を得ることが可能なる。また、多重露光を行うことで自然光のノイズを低減することが可能となる。
*** Explanation of effects ***
As described above, the mobile imaging system 1 according to the second embodiment uses the TDI sensor 112 to control the moving speed and the imaging timing. Therefore, it is possible to obtain the effect of performing exposure exposure imaging of the same position on the imaging surface a plurality of times. As a result, the contrast of the image is enhanced, and an image with high contrast can be obtained. Moreover, it is possible to reduce natural light noise by performing multiple exposure.

また、実施の形態2に係る移動撮像システム1は、TDIセンサ112を使用して、撮像エリアを広げたので、線状の照明光とのアライメントの許容度が大きくなる。また、多段露光中に撮像面からの反射光が1度以上露光することができれば撮像面の撮像が可能となるので、この点からも線状の照明光とのアライメントの許容度が大きくなる。そのため、コスト面で有利となる。   In addition, since the mobile imaging system 1 according to Embodiment 2 uses the TDI sensor 112 to expand the imaging area, the tolerance for alignment with the linear illumination light increases. In addition, if the reflected light from the imaging surface can be exposed once or more during multistage exposure, the imaging surface can be imaged. From this point as well, the alignment tolerance with the linear illumination light increases. This is advantageous in terms of cost.

実施の形態3.
実施の形態3は、移動体2を自動運転する点が実施の形態2と異なる。実施の形態3では、この異なる点について説明する。
Embodiment 3 FIG.
The third embodiment is different from the second embodiment in that the moving body 2 is automatically operated. In the third embodiment, this different point will be described.

***構成の説明***
図18は、実施の形態3に係る移動撮像装置3の構成図である。
移動撮像装置3は、計測部16と、運転部17とを備える点が、図13に示す移動撮像装置3と異なる。
計測部16は、移動体2の位置等を計測する。運転部17は、制御部15により制御された移動速度と、計測部16によって計測された位置等とに基づき、移動体2を移動させる。
*** Explanation of configuration ***
FIG. 18 is a configuration diagram of the mobile imaging device 3 according to the third embodiment.
The mobile imaging device 3 is different from the mobile imaging device 3 shown in FIG. 13 in that the mobile imaging device 3 includes a measurement unit 16 and an operation unit 17.
The measuring unit 16 measures the position of the moving body 2 and the like. The driving unit 17 moves the moving body 2 based on the moving speed controlled by the control unit 15 and the position measured by the measuring unit 16.

図19は、実施の形態3に係る計測部16の構成図である。
計測部16は、位置計測部161と、姿勢計測部162と、走行センサ163と、走路取得部164とを備える。
位置計測部161は、GPS(Global Positioning System)やQZS(Quasi−Zenith Satellite)等の信号を用いて、移動体2の位置を計測する。
姿勢計測部162は、移動体2の傾きを計測する。
走行センサ163は、移動体2の走行状態を監視する。
走路取得部164は、運転者等によって入力された、移動体2が走行する予定ルートを取得する。
FIG. 19 is a configuration diagram of the measurement unit 16 according to the third embodiment.
The measurement unit 16 includes a position measurement unit 161, a posture measurement unit 162, a travel sensor 163, and a travel path acquisition unit 164.
The position measuring unit 161 measures the position of the moving body 2 using signals such as GPS (Global Positioning System) and QZS (Quasi-Zenith Satellite).
The posture measuring unit 162 measures the inclination of the moving body 2.
The traveling sensor 163 monitors the traveling state of the moving body 2.
The travel path acquisition unit 164 acquires a planned route that the mobile body 2 travels input by a driver or the like.

運転部17は、位置計測部161が計測した位置と、姿勢計測部162が計測した傾きと、走行センサ163が計測した走行状態とを参照して、走路取得部164が取得した予定ルートを、制御部15により制御された移動速度で移動体2を走行させる。
なお、撮像部11は、位置計測部161が計測した位置と、姿勢計測部162が計測した傾きと、走行センサ163が計測した走行状態とを参照して、適切に撮像面4を撮像できるように、TDIセンサ112を制御してもよい。同様に、照明部12は、位置計測部161が計測した位置と、姿勢計測部162が計測した傾きと、走行センサ163が計測した走行状態とを参照して、適切に撮像面4に照明光を当てるように制御してもよい。
The driving unit 17 refers to the position measured by the position measuring unit 161, the inclination measured by the posture measuring unit 162, and the traveling state measured by the traveling sensor 163, and the planned route acquired by the traveling road acquiring unit 164, The moving body 2 is caused to travel at a moving speed controlled by the control unit 15.
The imaging unit 11 can appropriately capture the imaging surface 4 with reference to the position measured by the position measurement unit 161, the inclination measured by the posture measurement unit 162, and the traveling state measured by the traveling sensor 163. In addition, the TDI sensor 112 may be controlled. Similarly, the illumination unit 12 appropriately illuminates the imaging surface 4 with reference to the position measured by the position measurement unit 161, the inclination measured by the posture measurement unit 162, and the travel state measured by the travel sensor 163. You may control to apply.

***動作の説明***
図20は、TDIセンサ112の移動の様子を模示す図である。
実施の形態2で説明した複数化の露光の効果を得るためには、TDIセンサ112は、(a)に示すように直線的に移動することが望ましい。しかし、実際には、程度の大きさはあるものの、(b)に示すように曲がって移動してしまうことが多い。また、移動速度も変動しないことが望ましい。しかし、実際には、移動速度も変動してしまうことが多い。
そのため、移動体2の運転者は、細心の注意を払って移動体2を運転する必要がある。
*** Explanation of operation ***
FIG. 20 is a diagram illustrating how the TDI sensor 112 moves.
In order to obtain the multiple exposure effect described in the second embodiment, it is desirable that the TDI sensor 112 move linearly as shown in FIG. However, in reality, although there is a size, it is often bent and moved as shown in (b). It is desirable that the moving speed does not fluctuate. However, in practice, the moving speed often varies.
Therefore, the driver of the moving body 2 needs to drive the moving body 2 with great care.

図21は、移動体2の移動ルートを示す図である。
図20に基づき説明したように、運転者が移動体2を運転した場合、直線的に移動しようとしても曲がってしまうことが多い。そのため、(a)に示すように、移動ルートは曲がった軌跡を描いてしまうことが多い。また、経路2で方向転換して、経路1で進んだルートを経路3で引き返そうとしても、実際には経路3が経路1から少しずれてしまうことが多い。
FIG. 21 is a diagram illustrating a moving route of the moving body 2.
As described based on FIG. 20, when the driver drives the moving body 2, the driver often turns when trying to move linearly. Therefore, as shown in (a), the movement route often draws a curved locus. In addition, even if the direction is changed by the route 2 and the route advanced by the route 1 is tried to be turned back by the route 3, the route 3 is often slightly deviated from the route 1 in practice.

そこで、走路取得部164は、走行する予定ルートを取得する。ここでは、経路4、経路5、経路6と走行する予定ルートを取得する。経路4と経路6とは直線的なルートとなっている。そして、運転部18は、移動体2が経路4の始点に到達すると、位置計測部161が計測した位置と、姿勢計測部162が計測した傾きと、走行センサ163が計測した走行状態とを参照して、移動体2を予定ルートに沿って移動させる。この際、撮像部11と照明部12とも、TDIセンサ112と光源部121とを適切に制御して、撮像面4を撮像する。   Therefore, the travel path acquisition unit 164 acquires a planned route to travel. Here, route 4, route 5, route 6 and a planned route to travel are acquired. The route 4 and the route 6 are linear routes. Then, when the moving body 2 reaches the starting point of the route 4, the driving unit 18 refers to the position measured by the position measuring unit 161, the inclination measured by the posture measuring unit 162, and the traveling state measured by the traveling sensor 163. Then, the moving body 2 is moved along the planned route. At this time, both the imaging unit 11 and the illumination unit 12 appropriately control the TDI sensor 112 and the light source unit 121 to image the imaging surface 4.

***効果の説明***
以上のように、実施の形態3に係る移動撮像システム1では、移動体2を自動運転することで、移動体2を安定して移動させることができる。そのため、撮像した画像の品質が向上する。また、移動体2の運転者の負荷を低減できるので、運転者の健康維持に貢献するとともに、撮像費用の低減にも寄与する。
*** Explanation of effects ***
As described above, in the mobile imaging system 1 according to Embodiment 3, the moving body 2 can be stably moved by automatically driving the moving body 2. Therefore, the quality of the captured image is improved. Further, since the load on the driver of the moving body 2 can be reduced, it contributes to maintaining the health of the driver and also to reducing the imaging cost.

実施の形態1から3に係る移動撮像システム1は、移動しながら周囲の構造物等の画像を高精細に撮像することができる。そのため、移動撮像システム1は、周囲の構造物の状態観察、位置把握に利用可能である。さらに、移動撮像システム1は、移動しながらの撮像が可能であるので、交通を遮断せずに周囲の構造物の状態観察、位置把握に利用できる。   The moving imaging system 1 according to Embodiments 1 to 3 can capture an image of a surrounding structure or the like with high definition while moving. Therefore, the moving imaging system 1 can be used for state observation and position grasping of surrounding structures. Furthermore, since the moving imaging system 1 can perform imaging while moving, the moving imaging system 1 can be used for state observation and position grasping of surrounding structures without blocking traffic.

図22は、実施の形態1から3に係る移動撮像装置3のハードウェア構成例を示す図である。
移動撮像装置3はコンピュータである。
移動撮像装置3は、プロセッサ901、補助記憶装置902、メモリ903、通信装置904、入力インタフェース905、ディスプレイインタフェース906といったハードウェアを備える。
プロセッサ901は、信号線910を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
入力インタフェース905は、ケーブル911により入力装置907に接続されている。
ディスプレイインタフェース906は、ケーブル912によりディスプレイ908に接続されている。
FIG. 22 is a diagram illustrating a hardware configuration example of the mobile imaging device 3 according to the first to third embodiments.
The mobile imaging device 3 is a computer.
The mobile imaging device 3 includes hardware such as a processor 901, an auxiliary storage device 902, a memory 903, a communication device 904, an input interface 905, and a display interface 906.
The processor 901 is connected to other hardware via the signal line 910, and controls these other hardware.
The input interface 905 is connected to the input device 907 by a cable 911.
The display interface 906 is connected to the display 908 by a cable 912.

プロセッサ901は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ901は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
メモリ903は、例えば、RAM(Random Access Memory)である。
通信装置904は、データを受信するレシーバー9041及びデータを送信するトランスミッター9042を含む。通信装置904は、例えば、通信チップ又はNIC(Network Interface Card)である。
入力インタフェース905は、入力装置907のケーブル911が接続されるポートである。入力インタフェース905は、例えば、USB(Universal Serial Bus)端子である。
ディスプレイインタフェース906は、ディスプレイ908のケーブル912が接続されるポートである。ディスプレイインタフェース906は、例えば、USB端子又はHDMI(登録商標)(High Definition Multimedia Interface)端子である。
入力装置907は、例えば、マウス、キーボード又はタッチパネルである。
ディスプレイ908は、例えば、LCD(Liquid Crystal Display)である。
The processor 901 is an IC (Integrated Circuit) that performs processing. The processor 901 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
The auxiliary storage device 902 is, for example, a ROM (Read Only Memory), a flash memory, or an HDD (Hard Disk Drive).
The memory 903 is, for example, a RAM (Random Access Memory).
The communication device 904 includes a receiver 9041 that receives data and a transmitter 9042 that transmits data. The communication device 904 is, for example, a communication chip or a NIC (Network Interface Card).
The input interface 905 is a port to which the cable 911 of the input device 907 is connected. The input interface 905 is, for example, a USB (Universal Serial Bus) terminal.
The display interface 906 is a port to which the cable 912 of the display 908 is connected. The display interface 906 is, for example, a USB terminal or an HDMI (registered trademark) (High Definition Multimedia Interface) terminal.
The input device 907 is, for example, a mouse, a keyboard, or a touch panel.
The display 908 is, for example, an LCD (Liquid Crystal Display).

補助記憶装置902には、上述した中央制御部10と、撮像部11と、照明部12と、記憶部13と、移動距離計測部14と、制御部15と、計測部16と、運転部17と(以下、中央制御部10と、撮像部11と、照明部12と、記憶部13と、移動距離計測部14と、制御部15と、計測部16と、運転部17とをまとめて「部」と表記する)の機能を実現するプログラムが記憶されている。
このプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
更に、補助記憶装置902には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ903にロードされ、プロセッサ901はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
図22では、1つのプロセッサ901が図示されているが、移動撮像装置3が複数のプロセッサ901を備えていてもよい。そして、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ903、補助記憶装置902、又は、プロセッサ901内のレジスタ又はキャッシュメモリにファイルとして記憶される。
The auxiliary storage device 902 includes the above-described central control unit 10, imaging unit 11, illumination unit 12, storage unit 13, movement distance measurement unit 14, control unit 15, measurement unit 16, and operation unit 17. (Hereafter, the central control unit 10, the imaging unit 11, the illumination unit 12, the storage unit 13, the movement distance measurement unit 14, the control unit 15, the measurement unit 16, and the operation unit 17 are collectively referred to as “ A program that realizes the function of “part” is stored.
This program is loaded into the memory 903, read into the processor 901, and executed by the processor 901.
Further, the auxiliary storage device 902 also stores an OS (Operating System).
Then, at least a part of the OS is loaded into the memory 903, and the processor 901 executes a program that realizes the function of “unit” while executing the OS.
Although one processor 901 is illustrated in FIG. 22, the mobile imaging device 3 may include a plurality of processors 901. A plurality of processors 901 may execute a program for realizing the function of “unit” in cooperation with each other.
In addition, information, data, signal values, and variable values indicating the results of the processing of “unit” are stored as files in the memory 903, the auxiliary storage device 902, or a register or cache memory in the processor 901.

「部」を「サーキットリー」で提供してもよい。また、「部」を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。「回路」及び「サーキットリー」は、プロセッサ901だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。   The “part” may be provided as “circuitry”. Further, “part” may be read as “circuit”, “process”, “procedure”, or “processing”. “Circuit” and “Circuitry” include not only the processor 901 but also other types of processing circuits such as a logic IC or GA (Gate Array) or ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). It is a concept to include.

1 移動撮像システム、2 移動体、3 移動撮像装置、4 撮像面、10 中央制御部、11 撮像部、111 ラインセンサ、112 TDIセンサ、113 センサ、114 原稿、12 照明部、121 光源部、122 光源、123 シリンドリカルレンズ、13 記憶部、14 移動距離計測部、15 制御部、16 計測部、17 運転部。   DESCRIPTION OF SYMBOLS 1 Mobile imaging system, 2 Mobile body, 3 Mobile imaging device, 4 Imaging surface, 10 Central control part, 11 Imaging part, 111 Line sensor, 112 TDI sensor, 113 Sensor, 114 Original, 12 Illumination part, 121 Light source part, 122 Light source, 123 cylindrical lens, 13 storage unit, 14 moving distance measurement unit, 15 control unit, 16 measurement unit, 17 operation unit.

Claims (11)

移動体に設置され、前記移動体の移動時に移動経路にある撮像面を撮像する移動撮像装置であり、
自然光の地表における分光放射分布において照度が前後の波長領域に比べて基準値以上低い波長領域の照明光を、前記撮像面に斜め方向から当てる照明部と、
前記照明部が当てた照明光を前記撮像面が反射した反射光を取得して、前記撮像面を撮像する撮像部と
を備える移動撮像装置。
A moving imaging apparatus that is installed on a moving body and images an imaging surface in a moving path when the moving body moves,
In the spectral radiation distribution on the ground surface of natural light, the illumination unit that illuminates illumination light in a wavelength region that is lower than a reference value compared to the front and back wavelength regions by an oblique direction to the imaging surface;
A moving imaging apparatus comprising: an imaging unit that obtains reflected light reflected by the imaging surface with illumination light applied by the illumination unit and images the imaging surface.
前記照明部は、前記照明光の前記撮像面に対する入射角を、前記照明光が前記撮像面に形成された溝の底まで到達する角度とする
請求項1に記載の移動撮像装置。
The moving imaging apparatus according to claim 1, wherein the illumination unit sets an incident angle of the illumination light to the imaging surface to an angle at which the illumination light reaches a bottom of a groove formed on the imaging surface.
前記照明部は、930nm以上970nm以下に含まれる波長領域の照明光を当てる
請求項1又は2に記載の移動撮像装置。
The moving imaging apparatus according to claim 1, wherein the illumination unit applies illumination light in a wavelength region included in a range from 930 nm to 970 nm.
前記照明部は、LED(Light Emitting Diode)光源又はLD(Laser Diode)光源から出力された光をシリンドリカルレンズにより線状光とした前記照明光を前記撮像面に当てる
請求項1から3までのいずれか1項に記載の移動撮像装置。
4. The illumination unit according to claim 1, wherein the illumination unit applies the illumination light, which is linear light from a light emitted from an LED (Light Emitting Diode) light source or an LD (Laser Diode) light source, to the imaging surface. 5. The moving imaging device according to claim 1.
前記照明部は、複数の光源部を有しており、
前記撮像部は、光源部毎に、対応する光源部からの照明光を反射した反射光を取得して撮像するラインセンサを有しており、
各光源部と、その光源部に対応するラインセンサとのペアが、前記移動体の移動方向に沿って順に配置された
請求項1から4までのいずれか1項に記載の移動撮像装置。
The illumination unit has a plurality of light source units,
The imaging unit has a line sensor that acquires and captures reflected light obtained by reflecting illumination light from a corresponding light source unit for each light source unit,
The moving imaging apparatus according to any one of claims 1 to 4, wherein a pair of each light source unit and a line sensor corresponding to the light source unit is sequentially arranged along a moving direction of the moving body.
前記移動撮像装置は、さらに、
各ラインセンサにより撮像される位置が等間隔になるように、前記移動体の移動速度と、前記各ラインセンサの撮像タイミングとの少なくともいずれかを制御する制御部
を備える請求項5に記載の移動撮像装置。
The mobile imaging device further includes:
The movement according to claim 5, further comprising: a control unit that controls at least one of a moving speed of the moving body and an imaging timing of each line sensor so that the positions imaged by each line sensor are equally spaced. Imaging device.
前記移動撮像装置は、さらに、
各ラインセンサにより撮像される位置が一致するように、前記移動体の移動速度と、前記各ラインセンサの撮像タイミングとの少なくともいずれかを制御する制御部
を備える請求項5に記載の移動撮像装置。
The mobile imaging device further includes:
The mobile imaging apparatus according to claim 5, further comprising a control unit that controls at least one of a moving speed of the moving body and an imaging timing of each line sensor so that positions captured by the line sensors coincide with each other. .
前記光源部によって照明光の照射方向が異なる
請求項5から7までのいずれか1項に記載の移動撮像装置。
The moving imaging apparatus according to claim 5, wherein an irradiation direction of illumination light differs depending on the light source unit.
前記撮像部は、前記移動体の移動方向に沿って複数のセンサが配置されたTDI(Time Delayed Integration)センサにより前記撮像面を撮像する
請求項1から4までのいずれか1項に記載の移動撮像装置。
The movement according to any one of claims 1 to 4, wherein the imaging unit images the imaging surface by a TDI (Time Delayed Integration) sensor in which a plurality of sensors are arranged along a moving direction of the moving body. Imaging device.
前記移動撮像装置は、さらに、
前記TDIセンサにおいて、前記移動方向に沿って配置された各センサにより撮像される位置が一致するように、前記移動体の移動速度と、前記各センサの撮像タイミングとの少なくともいずれかを制御する制御部
を備える請求項9に記載の移動撮像装置。
The mobile imaging device further includes:
In the TDI sensor, control for controlling at least one of a moving speed of the moving body and an imaging timing of each sensor so that positions captured by the respective sensors arranged along the moving direction coincide with each other. The moving imaging apparatus according to claim 9, further comprising a unit.
前記移動撮像装置は、さらに、
前記移動体の位置を計測する計測部と、
前記計測部が計測した位置に基づき、前記移動体を移動させる運転部
を備える請求項1から10までのいずれか1項に記載の移動撮像装置。
The mobile imaging device further includes:
A measuring unit for measuring the position of the moving body;
The mobile imaging device according to claim 1, further comprising an operation unit that moves the moving body based on the position measured by the measurement unit.
JP2015021987A 2015-02-06 2015-02-06 Mobile imaging device Expired - Fee Related JP6320315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015021987A JP6320315B2 (en) 2015-02-06 2015-02-06 Mobile imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015021987A JP6320315B2 (en) 2015-02-06 2015-02-06 Mobile imaging device

Publications (2)

Publication Number Publication Date
JP2016145715A true JP2016145715A (en) 2016-08-12
JP6320315B2 JP6320315B2 (en) 2018-05-09

Family

ID=56686217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015021987A Expired - Fee Related JP6320315B2 (en) 2015-02-06 2015-02-06 Mobile imaging device

Country Status (1)

Country Link
JP (1) JP6320315B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022515183A (en) * 2018-12-20 2022-02-17 シャンハイ マイクロ エレクトロニクス イクイプメント(グループ)カンパニー リミティド Object surface detection device and detection method
JP2023508738A (en) * 2019-12-30 2023-03-03 上海集成電路研発中心有限公司 Defect inspection device and method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6280507A (en) * 1985-10-03 1987-04-14 Pasuko:Kk Measuring method for cracking on road surface
JP2000028315A (en) * 1998-07-13 2000-01-28 Honda Motor Co Ltd Object detector
JP2003075294A (en) * 2001-09-05 2003-03-12 Toray Ind Inc Method for inspecting substrate
JP2004101311A (en) * 2002-09-09 2004-04-02 Matsushita Electric Ind Co Ltd Luminaire and lighting method for line sensor cameras
JP2004132800A (en) * 2002-10-10 2004-04-30 Nippon Steel Corp Surface defect inspection device for band like body
US20060274930A1 (en) * 2005-06-02 2006-12-07 Institut National D'optique Vision system and a method for scanning a traveling surface to detect surface defects thereof
JP2007155370A (en) * 2005-12-01 2007-06-21 Shimadzu Corp Head motion tracker
JP2010266430A (en) * 2009-04-15 2010-11-25 Jfe Steel Corp Method and apparatus for inspecting defect of steel plate surface
JP2011069769A (en) * 2009-09-28 2011-04-07 Hitachi High-Technologies Corp Defect inspection apparatus and method thereof
JP2012215566A (en) * 2011-03-25 2012-11-08 Kaneka Corp Flaw detecting apparatus, flaw detecting method and sheet-shaped object
JP2014187554A (en) * 2013-03-22 2014-10-02 Fujitsu Ltd Imaging apparatus, information processing apparatus, mobile terminal device and display device
JP2015025727A (en) * 2013-07-26 2015-02-05 三菱電機株式会社 Road surface imaging apparatus

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6280507A (en) * 1985-10-03 1987-04-14 Pasuko:Kk Measuring method for cracking on road surface
JP2000028315A (en) * 1998-07-13 2000-01-28 Honda Motor Co Ltd Object detector
JP2003075294A (en) * 2001-09-05 2003-03-12 Toray Ind Inc Method for inspecting substrate
JP2004101311A (en) * 2002-09-09 2004-04-02 Matsushita Electric Ind Co Ltd Luminaire and lighting method for line sensor cameras
JP2004132800A (en) * 2002-10-10 2004-04-30 Nippon Steel Corp Surface defect inspection device for band like body
US20060274930A1 (en) * 2005-06-02 2006-12-07 Institut National D'optique Vision system and a method for scanning a traveling surface to detect surface defects thereof
JP2007155370A (en) * 2005-12-01 2007-06-21 Shimadzu Corp Head motion tracker
JP2010266430A (en) * 2009-04-15 2010-11-25 Jfe Steel Corp Method and apparatus for inspecting defect of steel plate surface
JP2011069769A (en) * 2009-09-28 2011-04-07 Hitachi High-Technologies Corp Defect inspection apparatus and method thereof
JP2012215566A (en) * 2011-03-25 2012-11-08 Kaneka Corp Flaw detecting apparatus, flaw detecting method and sheet-shaped object
JP2014187554A (en) * 2013-03-22 2014-10-02 Fujitsu Ltd Imaging apparatus, information processing apparatus, mobile terminal device and display device
JP2015025727A (en) * 2013-07-26 2015-02-05 三菱電機株式会社 Road surface imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022515183A (en) * 2018-12-20 2022-02-17 シャンハイ マイクロ エレクトロニクス イクイプメント(グループ)カンパニー リミティド Object surface detection device and detection method
JP7241884B2 (en) 2018-12-20 2023-03-17 シャンハイ マイクロ エレクトロニクス イクイプメント(グループ)カンパニー リミティド OBJECT SURFACE DETECTION DEVICE AND DETECTION METHOD
JP2023508738A (en) * 2019-12-30 2023-03-03 上海集成電路研発中心有限公司 Defect inspection device and method
JP7340703B2 (en) 2019-12-30 2023-09-07 上海集成電路研発中心有限公司 Defect inspection equipment and method

Also Published As

Publication number Publication date
JP6320315B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
US20190025048A1 (en) Three-dimensional measuring device
JP2013517474A (en) Board inspection equipment
US9417053B2 (en) Three-dimensional measuring device
JP2010276607A (en) Apparatus and method for measuring three-dimensional shape
US9420235B2 (en) Measuring system for a 3D object
US10841561B2 (en) Apparatus and method for three-dimensional inspection
US20170132779A1 (en) Substrate inspection device and method thereof
JP2017122614A (en) Image generation method and inspection device
JP6320315B2 (en) Mobile imaging device
JP5566707B2 (en) Appearance inspection apparatus and appearance inspection method
JP2007046952A (en) Measuring ruler, measuring system, measuring method, method for measuring tunnel cross section, and method for measuring separation between platform and rail
JP2018064257A (en) Imaging System
JP2008157851A (en) Camera module
CN108062790B (en) Three-dimensional coordinate system establishing method applied to object three-dimensional reconstruction
JP5298929B2 (en) Overhead line inspection device
KR102216999B1 (en) Non-Lambertian Surface Inspecting System For Line Scan
JP6913615B2 (en) Railroad vehicle visual inspection equipment and its setting method
JP6627986B2 (en) Mobile imaging system and imaging method
KR101436572B1 (en) 3d shape measuring apparatus using optical triangulation method
US20050206883A1 (en) Single source, single camera inspection system
US9958399B2 (en) Imaging apparatus and imaging method
KR101089590B1 (en) Method for processing multi-image and measurement device of three dimensional shape
JP6628669B2 (en) Structure surface inspection apparatus, structure surface inspection system including the same, and structure surface inspection method
JP6877239B2 (en) Pattern inspection device and pattern inspection method
JP2013205076A (en) Pattern dimension measuring apparatus and pattern dimension measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R150 Certificate of patent or registration of utility model

Ref document number: 6320315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees