JP4978799B2 - Straight-forward guidance system for moving vehicles - Google Patents
Straight-forward guidance system for moving vehicles Download PDFInfo
- Publication number
- JP4978799B2 JP4978799B2 JP2007334398A JP2007334398A JP4978799B2 JP 4978799 B2 JP4978799 B2 JP 4978799B2 JP 2007334398 A JP2007334398 A JP 2007334398A JP 2007334398 A JP2007334398 A JP 2007334398A JP 4978799 B2 JP4978799 B2 JP 4978799B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- far target
- moving vehicle
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Guiding Agricultural Machines (AREA)
Description
本発明は、トラクタや田植機などの農用車両又は、土木・建築分野における作業車両等の移動車両を目標に向かって誘導しつつ直進走行させるための移動車両の直進誘導システムに関する。 The present invention relates to a straight traveling guidance system for a traveling vehicle for guiding a traveling vehicle such as a tractor or a rice transplanter or a traveling vehicle such as a work vehicle in the field of civil engineering and construction toward a target.
近年、農業人口が減少する傾向にあり、また熟練農業者が減少し、その雇用も難しい状況にあるため、圃場における播種や畝立てなどの作業行程において、移動車両の1つである農用車両を自動的に直進走行させる技術への要求が高まってきている。 In recent years, the agricultural population has been declining, the number of skilled farmers has decreased, and it is difficult to hire them, so in the work process such as sowing and setting up in the field, agricultural vehicles that are one of the moving vehicles There is an increasing demand for technology for automatically running straight ahead.
そこで、従来、例えば、以下に示す農用車両の直進制御法が開発されている。この農用車両の直進制御法では、農用車両は、地磁気方位センサ及び計測・制御手段を有している。また、この農用車両の直進制御法では、上記農用車両を用いて手動運転によりティーチング走行を行って、地磁気方位センサから時々刻々取得される農用車両の走行方位から往/復2方向の目標方位を取得した後、地磁気方位センサから時々刻々取得される農用車両の走行方位と上記ティーチング走行時に得られた目標方位との比較に基づき農用車両を自動走行させている(例えば、特許文献1参照。)。以下、この技術を第1の従来例と呼ぶ。 Therefore, conventionally, for example, the following straight-ahead control method for agricultural vehicles has been developed. In this agricultural vehicle straight-ahead control method, the agricultural vehicle has a geomagnetic direction sensor and measurement / control means. Further, in this straight traveling control method for agricultural vehicles, teaching traveling is performed by manual operation using the agricultural vehicle, and the target direction in the forward / reverse two directions is determined from the traveling direction of the agricultural vehicle obtained from the geomagnetic direction sensor every moment. After the acquisition, the agricultural vehicle is automatically driven based on a comparison between the traveling azimuth of the agricultural vehicle acquired from the geomagnetic azimuth sensor every moment and the target azimuth obtained during the teaching traveling (see, for example, Patent Document 1). . Hereinafter, this technique is referred to as a first conventional example.
また、従来、以下に示す作業車の誘導装置が開発されている。この作業車の誘導装置では、互いに平行する複数個の作業行程それぞれにおいて誘導用ビーム光を投射させるために、作業行程の長さ方向に向けて誘導用ビーム光を投射するビーム光投射手段が移動車上部に装備されている。この移動車には、さらに、上記ビーム光投射手段を移動車に対して前後方向及び横幅方向に位置調節する位置調節手段と、ビーム光投射手段を移動車に対して縦軸芯周りで旋回調節する旋回調節手段とがそれぞれ設けられている(例えば、特許文献2参照。)。以下、この技術を第2の従来例と呼ぶ。 Conventionally, work vehicle guidance devices have been developed as described below. In this work vehicle guidance device, the beam light projection means for projecting the guide beam light in the length direction of the work process moves in order to project the guide beam light in each of a plurality of work processes parallel to each other. Equipped at the top of the car. The moving vehicle further includes a position adjusting unit that adjusts the position of the beam light projecting unit in the front-rear direction and the width direction with respect to the moving vehicle, and a turning adjustment of the beam light projecting unit around the vertical axis with respect to the moving vehicle. Turning adjustment means is provided (see, for example, Patent Document 2). Hereinafter, this technique is referred to as a second conventional example.
さらに、従来、以下に示す発光体の位置検出装置が開発されている。この発光体の位置検出装置では、外周位置に第1の偏光フィルタを設けた発光体を走行行程の端部に設置し、上記発光体を田植え機などの作業車両に搭載された、上記第1の偏光フィルタと同じ偏光方向の第2の偏光フィルタを設けた第1のイメージセンサと、上記第1の偏光フィルタとは偏光方向の異なる第3の偏光フィルタを設けた第2のイメージセンサとで撮像している。そして、2台のイメージセンサが撮像した撮像情報の差の情報に基づいて、上記発光体の撮像画面内での位置検出を行い、上記発光体に向かって作業車両を操向制御している(例えば、特許文献3参照。)。以下、この技術を第3の従来例と呼ぶ。 Further, conventionally, a light emitter position detection device described below has been developed. In this light emitter position detecting device, a light emitter having a first polarizing filter provided at the outer peripheral position is installed at an end of a travel stroke, and the light emitter is mounted on a work vehicle such as a rice planting machine. A first image sensor provided with a second polarizing filter having the same polarization direction as the polarizing filter, and a second image sensor provided with a third polarizing filter having a polarization direction different from that of the first polarizing filter. I'm shooting. And based on the difference information of the imaging information imaged by the two image sensors, the position of the light emitter within the imaging screen is detected, and the work vehicle is steered toward the light emitter ( For example, see Patent Document 3.) Hereinafter, this technique is referred to as a third conventional example.
また、従来、移動車両にテレビカメラを搭載し、遠方の樹木等の自然物や煙突等の建造物、あるいは予め設置した目標ポール等を目標として上記テレビカメラによって撮影し、得られた画像に基づいて、移動車両を目標に向かって自動直進制御する技術が提案されている(例えば、非特許文献1及び2参照。)。以下、この技術を第4の従来例と呼ぶ。 Conventionally, a moving vehicle is equipped with a TV camera, and a natural object such as a distant tree, a structure such as a chimney, or a target pole set in advance is photographed by the TV camera and based on the obtained image. In addition, techniques for automatically moving a moving vehicle toward a target have been proposed (see, for example, Non-Patent Documents 1 and 2). Hereinafter, this technique is referred to as a fourth conventional example.
一方、土木・建築分野においても、従来、以下に示す建設機械の自動運行装置が開発されている。この建設機械の自動運行装置は、点滅信号を発信する誘導灯を備えた誘導指示装置と、道路を舗装する際に用いられる締固め機械等の作業機とから構成されている。この作業機には、上記点滅信号を取り込むCCDカメラと、このCCDカメラからの画像データを処理する画像処理装置と、この画像処理装置の出力に基づいて作業機を誘導して走行制御する制御装置とが搭載されている(例えば、特許文献4参照。)。以下、この技術を第5の従来例と呼ぶ。 On the other hand, in the field of civil engineering / architecture, the following automatic operation devices for construction machines have been developed. This automatic operation device for a construction machine includes a guidance instruction device having a guide light for transmitting a blinking signal and a working machine such as a compacting machine used when paving a road. The working machine includes a CCD camera that captures the blinking signal, an image processing apparatus that processes image data from the CCD camera, and a control device that guides the working machine based on the output of the image processing apparatus and controls traveling. (For example, refer to Patent Document 4). Hereinafter, this technique is referred to as a fifth conventional example.
ところで、農用車両が、例えば、圃場における播種や移植、畝立てなどの作業行程を直線的に精確に行うことは重要である。特に、最初の作業行程は、当該作業跡が次行程(2行程目)以降の基準となるとともに、次に行うべき他の作業(次作業)、例えば、作物の生育管理作業や収穫作業の基準にもなる重要なものである。したがって、最初の作業行程では、農用車両を可能な限り直進走行させて作業することが重要である。そこで、このように重要な作業は、通常、農家の主人や熟練者などの作業責任者が行っている。しかし、このように熟練を要し、責任が大きい作業は、上記作業責任者にとっても負担が大きく、殊に作業すべき圃場の面積が広大な場合には、最初の作業行程を行う距離も長いため、一層負担が大きい。さらに、上記したように、農業人口が年々減少しており、上記した最初の作業行程を行うことができる人材も恒常的に不足している。 By the way, it is important that the agricultural vehicle linearly and accurately performs work processes such as sowing, transplanting, and setting up in the field. In particular, in the first work process, the work trace becomes a standard for the subsequent process (second process) and the following, and other work (next work) to be performed next, for example, a standard for crop growth management work and harvesting work It ’s also important. Therefore, in the first work process, it is important to work with the agricultural vehicle running as straight as possible. Therefore, such an important work is usually performed by a person in charge of work such as a farmer's master or a skilled worker. However, work that requires skill and great responsibility in this way is also a burden for the person in charge of the work, and especially when the area of the field to be worked is large, the distance for performing the first work process is long. Therefore, the burden is even greater. Furthermore, as described above, the agricultural population is decreasing year by year, and there is a constant shortage of human resources who can perform the first work process described above.
ところが、上記した第1の従来例では、目標方向の取得のために、最初の作業行程は、手動運転によりティーチング走行を行う必要があり、上記問題を解決することができない。また、上記した第1の従来例では、何らかの理由により、地磁気方位センサから取得される農用車両の走行方位にノイズが混入した場合には、農用車両の直進走行が乱れるおそれがあるなどの問題があった。 However, in the above-described first conventional example, in order to obtain the target direction, the first work process needs to perform teaching traveling by manual operation, and the above problem cannot be solved. Further, in the first conventional example described above, there is a problem that, for some reason, when noise is mixed in the traveling direction of the agricultural vehicle acquired from the geomagnetic direction sensor, the straight traveling of the agricultural vehicle may be disturbed. there were.
また、上記した第2の従来例では、誘導用ビーム光を投射するビーム光投射手段が高価であるとともに、このビーム光投射手段の設置や調整に時間と手間がかかるなどの問題があり、いまだ実用化に至っていない。 In the second conventional example described above, the beam light projecting means for projecting the guiding beam light is expensive, and there is a problem that it takes time and labor to install and adjust the beam light projecting means. Not yet commercialized.
さらに、上記した第3の従来例では、発光体の外周位置に第1の偏光フィルタを設けているので、発光体から投射される光の光量が2分の1以下に減少することになる。したがって、発光体と作業車両との距離が長い場合には、発光体から投射される光の光量が不足して、2台のイメージセンサが撮像した撮像情報から発光体を検出することが困難となる。つまり、上記した第3の従来例では、発光体と作業車両との距離に実用上の制限があるなどの問題があった。また、上記した第3の従来例では、2台のイメージセンサを作業車両に搭載する必要があるため、発光体の位置検出装置の構成が複雑化するとともに、価格も高価になるという問題もあった。 Furthermore, in the third conventional example described above, since the first polarizing filter is provided at the outer peripheral position of the light emitter, the amount of light projected from the light emitter is reduced to half or less. Therefore, when the distance between the light emitter and the work vehicle is long, the amount of light projected from the light emitter is insufficient, and it is difficult to detect the light emitter from the imaging information captured by the two image sensors. Become. That is, the third conventional example has a problem that there is a practical limit on the distance between the light emitter and the work vehicle. Further, in the third conventional example described above, since it is necessary to mount two image sensors on the work vehicle, there is a problem that the configuration of the position detecting device for the light emitter is complicated and the price is high. It was.
また、上記した第4の従来例では、圃場周辺において、全体の風景の中で目標とするのに適した目立った自然物や建造物が常に存在するとは限らない。したがって、目立った自然物や建造物が存在しない圃場周辺では、テレビカメラによって撮影した画像から目標とすべきものを検出できない場合が多いため、上記画像に基づいて移動車両の自動直進を安定的に制御できないことが多いという問題があった。また、上記した第4の従来例では、予め設置した目標ポールと移動車両との距離が長くなると、テレビカメラによって撮影した画像上では、周囲の背景や他の物体との区別が困難となる場合がある。つまり、上記した第4の従来例では、目標ポールと移動車両との距離に実用上の制限があるなどの問題があった。 Further, in the above-described fourth conventional example, there are not always conspicuous natural objects and buildings suitable for targeting in the entire landscape around the farm field. Therefore, since there are many cases where it is not possible to detect what should be a target from an image captured by a TV camera in the vicinity of a farm field where there are no conspicuous natural objects or buildings, automatic straight traveling of a moving vehicle cannot be stably controlled based on the image. There were many problems. Further, in the above-described fourth conventional example, when the distance between the target pole installed in advance and the moving vehicle becomes long, it is difficult to distinguish the surrounding background and other objects on the image captured by the TV camera. There is. That is, the above-described fourth conventional example has a problem that there is a practical limit on the distance between the target pole and the moving vehicle.
さらに、上記した第5の従来例では、CCDカメラからの画像データ内に、目標とする誘導灯の他に、例えば、太陽光を反射する家屋の明るい部分(例えば、窓や屋根等)などが背後にある場合には、誘導灯の領域と上記家屋の明るい部分の領域が同時に抽出され、誘導灯の位置検出が困難になるという問題があった。 Furthermore, in the fifth conventional example described above, in addition to the target guide light, for example, a bright part of a house that reflects sunlight (for example, a window or a roof) is included in the image data from the CCD camera. When it is behind, there is a problem that the area of the guide light and the area of the bright part of the house are extracted at the same time, which makes it difficult to detect the position of the guide light.
本発明は、上述した事情に鑑みてなされたものであり、上述のような問題を解決することを課題の一例とするものであって、これらの課題を解決することができる移動車両の直進誘導システムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an example of an object is to solve the above-described problems, and a straight traveling guide for a moving vehicle that can solve these problems The purpose is to provide a system.
上記課題を解決するために、請求項1記載の発明に係る移動車両の直進誘導システムは、移動車両に搭載される移動車両搭載部と、前記移動車両が直進走行すべき走路前方の延長線上に設置される遠方目標部とを備え、前記移動車両搭載部は、前記遠方目標部を撮像するカメラ部と、前記カメラ部から得られる画像を処理して前記直進走行のための走行情報を出力する画像処理部と、前記走行情報に基づいて前記移動車両を制御する操向制御部とを有し、前記遠方目標部は、前記カメラ部の撮像周期と最大露光時間を合計した時間以上であって、かつ、前記撮像周期の2倍の時間以下である範囲の時間の点灯と、前記範囲の時間の消灯とを繰り返し、前記画像処理部は、撮像された現フレームの前記画像と、1つ前の前記撮像周期に撮像された前フレームの前記画像において、対応する画素の輝度差の絶対値が第1の閾値以上であって、かつ、いずれか一方の画素の輝度が第2の閾値以上である場合に、当該画素を第1の遠方目標部候補画素として抽出するとともに、前記現フレームの前記画像と、2つ前の前記撮像周期に撮像された前々フレームの前記画像において、対応する画素の輝度差の絶対値が前記第1の閾値以上であって、かつ、いずれか一方の画素の輝度が前記第2の閾値以上である場合に、当該画素を第2の遠方目標部候補画素として抽出し、前記第1及び第2の遠方目標部候補画素を統合し、統合した遠方目標部候補画素に対して前記遠方目標部の位置検出を行い、検出結果に基づいて前記走行情報を生成することを特徴としている。 In order to solve the above-described problem, a straight traveling guidance system for a moving vehicle according to the first aspect of the present invention includes a moving vehicle mounting portion mounted on the moving vehicle and an extension line in front of the runway on which the moving vehicle should travel straight. A remote target unit installed, and the moving vehicle mounting unit outputs a travel information for the straight traveling by processing an image obtained from the camera unit and a camera unit that images the far target unit An image processing unit, and a steering control unit that controls the moving vehicle based on the travel information, and the far target unit is equal to or longer than a total time of an imaging cycle and a maximum exposure time of the camera unit. In addition, the image processing unit repeatedly turns on and off the time in a range that is not more than twice the time of the imaging cycle, and the image processing section Of the imaging cycle In the image of the previous frame, when the absolute value of the luminance difference of the corresponding pixel is equal to or higher than the first threshold and the luminance of any one of the pixels is equal to or higher than the second threshold, the pixel is In addition, the absolute value of the luminance difference between the corresponding pixels in the image of the current frame and the image of the previous frame imaged in the previous imaging cycle is extracted as one far target portion candidate pixel. If it is equal to or higher than the first threshold and the luminance of any one of the pixels is equal to or higher than the second threshold, the pixel is extracted as a second far target portion candidate pixel, and the first and first The two far target portion candidate pixels are integrated, the position of the far target portion is detected for the integrated far target portion candidate pixels, and the travel information is generated based on the detection result.
また、請求項2に記載の発明は、請求項1に記載の移動車両の直進誘導システムに係り、前記画像処理部は、前記前フレームの前記画像全体の中において、前記遠方目標部の位置検出を行う範囲として設定されたウィンドウに相当する画像部分を、前記現フレームの前記画像全体の中から探索し、探索された画像部分を前記現フレームの前記画像における第1のウィンドウとして設定し、前記前々フレームの前記画像全体の中に設定されたウィンドウに相当する画像部分を、前記現フレームの前記画像全体の中から探索し、探索された画像部分を前記現フレームの前記画像における第2のウィンドウとして設定し、前記第1及び第2のウィンドウに基づいて、前記第1及び第2の遠方目標部候補画素を抽出することを特徴としている。 The invention according to claim 2 relates to the straight-ahead guidance system for a moving vehicle according to claim 1, wherein the image processing unit detects the position of the far target unit in the entire image of the front frame. The image portion corresponding to the window set as a range to be searched is searched from the entire image of the current frame, the searched image portion is set as a first window in the image of the current frame, An image portion corresponding to the window set in the entire image of the previous frame is searched from the entire image of the current frame, and the searched image portion is searched for a second image in the image of the current frame. It is set as a window, and the first and second far target portion candidate pixels are extracted based on the first and second windows.
また、請求項3に記載の発明は、請求項1又は2に記載の移動車両の直進誘導システムに係り、前記画像処理部は、統合された前記遠方目標部候補画素をグループ化処理して抽出された複数の画素グループを構成する各画素について、前記現フレームの前記画像における輝度と、前記前フレームの前記画像における輝度との差の過去の数秒間分と、前記現フレームの前記画像における輝度と、前記前々フレームの前記画像における輝度との差の過去の数秒間分に基づいて前記画素の点滅の周期性及び点滅の時間間隔を検出し、検出結果に基づいて、当該遠方目標部候補画素を前記遠方目標部と判定することを特徴としている。 The invention according to claim 3 relates to the straight traveling guidance system for a moving vehicle according to claim 1 or 2, wherein the image processing unit extracts the integrated far target portion candidate pixels by grouping processing. For each of the pixels constituting the plurality of pixel groups, the difference between the luminance in the image of the current frame and the luminance in the image of the previous frame for the past few seconds, and the luminance of the image in the current frame And the period of the blinking of the pixel and the time interval of the blinking are detected based on the past several seconds of the difference from the luminance in the image of the previous frame, and based on the detection result, the far target candidate A pixel is determined as the far target portion.
また、請求項4に記載の発明は、請求項2又は3に記載の移動車両の直進誘導システムに係り、前記画像処理部は、各前記複数の画素グループに関する前記ウィンドウ上における位置の値の過去数秒間分について、上下方向と左右方向の座標値の時間的な変化量における標準偏差を算出し、前記標準偏差が予め設定した閾値より小さい場合には、当該画素グループを前記遠方目標部と判定することを特徴としている。 According to a fourth aspect of the present invention, there is provided the straight traveling guidance system for a moving vehicle according to the second or third aspect, wherein the image processing unit stores past values of positions on the window for the plurality of pixel groups. For several seconds, the standard deviation in the temporal change in the coordinate values in the vertical and horizontal directions is calculated, and when the standard deviation is smaller than a preset threshold, the pixel group is determined as the far target unit. It is characterized by doing.
また、請求項5に記載の発明は、請求項1乃至4のいずれかに記載の移動車両の直進誘導システムに係り、前記遠方目標部は、発光部分の輪郭の形状が、長方形状、楕円形状又は円形状のいずれかであって、前記輪郭の縦横比が2分の1から4分の1の間であることを特徴としている。 The invention according to claim 5 relates to the straight traveling guidance system for a moving vehicle according to any one of claims 1 to 4, wherein the far target portion has a light emitting portion whose contour shape is rectangular or elliptical. Or it is either circular shape, The aspect ratio of the said outline is between 1/2 and 1/4, It is characterized by the above-mentioned.
また、請求項6に記載の発明は、請求項2乃至5のいずれかに記載の移動車両の直進誘導システムに係り、前記カメラ部の露光時間、絞り、前記画像信号のアンプゲインの感度調節は、前記カメラ部の画像中に部分的に設定されている前記ウィンドウ内の画像の輝度分布に基づいて設定されることを特徴としている。 According to a sixth aspect of the present invention, there is provided the linear guiding system for a moving vehicle according to any of the second to fifth aspects, wherein the exposure time of the camera unit, the aperture, and the sensitivity adjustment of the amplifier gain of the image signal are adjusted. , And is set based on the luminance distribution of the image in the window partially set in the image of the camera unit.
また、請求項7に記載の発明は、請求項1乃至6のいずれかに記載の移動車両の直進誘導システムに係り、前記移動車両には、前記カメラ部が前記遠方目標部とともに撮像可能な車体マーカーを取り付け、前記画像処理部は、前記画像の中から前記車体マーカーの位置を検出し、前記車体マーカーの画像上の位置に基づいて、前記移動車両に対する前記カメラ部の方向を検出することを特徴としている。 A seventh aspect of the present invention relates to the straight traveling guidance system for a moving vehicle according to any one of the first to sixth aspects, in which the camera unit can image the camera unit together with the far target unit. A marker is attached, and the image processing unit detects the position of the vehicle body marker from the image, and detects the direction of the camera unit relative to the moving vehicle based on the position of the vehicle body marker on the image. It is a feature.
また、請求項8に記載の発明は、請求項1乃至7のいずれかに記載の移動車両の直進誘導システムに係り、前記遠方目標部は、前記移動車両が直進走行すべき走路後方の延長線上に設置され、前記カメラ部は、前記遠方目標部を撮像するように前記移動車両に搭載されていることを特徴としている。 An eighth aspect of the present invention relates to the straight traveling guidance system for a moving vehicle according to any one of the first to seventh aspects, wherein the far target portion is located on an extension line behind the runway on which the moving vehicle should travel straight ahead. The camera unit is mounted on the moving vehicle so as to image the far target unit.
本発明によれば、運転者の負担が軽減されるとともに、熟練者でなくても高能率・高精度な作業をすることができる。したがって、本発明によれば、天候や時間による太陽光の方向などの屋外環境の変化へ対応することができるとともに、各種の反射光や木漏れ日などのノイズへも対応することができる。また、100m以上の距離範囲で安定的に目標を認識することができるとともに、装置の小型化・低コスト化などを図ることができる。 According to the present invention, the burden on the driver is reduced, and a highly efficient and highly accurate work can be performed even if it is not an expert. Therefore, according to the present invention, it is possible to cope with changes in the outdoor environment such as the direction of sunlight depending on the weather and time, and it is also possible to cope with noises such as various reflected lights and sunbeams. In addition, the target can be recognized stably in a distance range of 100 m or more, and the apparatus can be reduced in size and cost.
図1は、本発明の実施の形態に係る移動車両の直進誘導システムの概略構成を示す側面図、図2は、図1に示す移動車両の直進誘導システムの概略構成を示す平面図である。また、図3は、図1に示す移動車両の直進誘導システムの概略構成を示すブロック図である。 FIG. 1 is a side view showing a schematic configuration of a straight traveling guidance system for a moving vehicle according to an embodiment of the present invention, and FIG. 2 is a plan view showing a schematic configuration of the straight traveling guidance system for a moving vehicle shown in FIG. FIG. 3 is a block diagram showing a schematic configuration of the straight guidance system for the moving vehicle shown in FIG.
本実施の形態に係る移動車両の直進誘導システムは、移動車両搭載部1と、遠方目標部2とから概略構成されている。移動車両搭載部1は、カメラ部11と、画像処理部12と、記憶部13と、車両制御部14と、操向制御機構15と、表示・操作部16とから概略構成されている。移動車両搭載部1は、図1及び図2の例では、農用トラクタからなる移動車両3に搭載されている。カメラ部11は、撮像方向が移動車両3の進行方向に向くように、移動車両3の室内、ルーフ上又はフロント部に設置されている。また、図2の例では、カメラ部11は、移動車両3の室内又はルーフ上であって、移動車両3の前方正面に向けて車両中心線MC上に搭載されている。また、カメラ部11は、水平線が視野に入るように、浅い俯角で取り付けられている。 The straight traveling guidance system for a moving vehicle according to the present embodiment includes a moving vehicle mounting unit 1 and a far target unit 2. The moving vehicle mounting unit 1 is generally configured by a camera unit 11, an image processing unit 12, a storage unit 13, a vehicle control unit 14, a steering control mechanism 15, and a display / operation unit 16. The mobile vehicle mounting unit 1 is mounted on a mobile vehicle 3 composed of an agricultural tractor in the examples of FIGS. 1 and 2. The camera unit 11 is installed indoors, on the roof, or on the front part of the moving vehicle 3 so that the imaging direction is directed to the traveling direction of the moving vehicle 3. In the example of FIG. 2, the camera unit 11 is mounted on the vehicle center line MC in the room or on the roof of the moving vehicle 3 and toward the front front of the moving vehicle 3. Moreover, the camera part 11 is attached with a shallow depression angle so that a horizontal line may enter the visual field.
本実施の形態に係る移動車両の直進誘導システムでは、検出可能な遠方目標部2の距離は、国内の圃場の大きさを考慮して、100m以上の距離を目安とし、一方、近傍側は5m程度まで検出可能であれば実用的に十分と考えられる。 In the straight traveling guidance system for a moving vehicle according to the present embodiment, the distance of the distant target portion 2 that can be detected is set to a distance of 100 m or more in consideration of the size of the domestic field, while the distance on the vicinity side is 5 m. If it can be detected to a certain extent, it is considered practically sufficient.
カメラ部11は、例えば、撮像素子、光学系等を有し、遠方目標部2を撮影し、撮影した画像に対応したアナログの画像信号を1フレームごとに出力する。撮像素子は、例えば、CCD、CMOS等からなり、マトリックス状に所定間隔をあけて配置されている。画像処理部12は、中央処理装置(CPU)、デジタルシグナルプロセッサ(DSP)、シーケンサ等を有している。画像処理部12は、記憶部13に記憶されている遠方目標検出プログラム等に基づいて、遠方目標検出処理を実行することにより、カメラ部11から出力されるアナログの画像信号をデジタルの画像データにアナログ/デジタル変換処理した後、処理・演算して、得られた画像データにおける遠方目標部2の位置を検出し、遠方目標部2の位置情報を車両制御部14に供給する。また、カメラ部11は、ステレオカメラなどの複数の撮像素子を有し、それら複数の撮像素子の内の1つの撮像素子から得られる画像を処理対象とする場合も同様に本発明の一実施の形態である。 The camera unit 11 includes, for example, an image sensor, an optical system, and the like. The camera unit 11 captures the far target unit 2 and outputs an analog image signal corresponding to the captured image for each frame. The image sensor is made of, for example, a CCD, a CMOS, etc., and is arranged in a matrix at predetermined intervals. The image processing unit 12 includes a central processing unit (CPU), a digital signal processor (DSP), a sequencer, and the like. The image processing unit 12 executes a remote target detection process based on a remote target detection program or the like stored in the storage unit 13 to convert an analog image signal output from the camera unit 11 into digital image data. After the analog / digital conversion processing, processing / calculation is performed, the position of the far target unit 2 in the obtained image data is detected, and the position information of the far target unit 2 is supplied to the vehicle control unit 14. Similarly, the camera unit 11 includes a plurality of image sensors such as a stereo camera, and an image obtained from one of the plurality of image sensors is a processing target. It is a form.
カメラ部11から得られる画像のうち、遠方目標部2の検出処理が可能な範囲は、例えば、横512画素、縦400画素である。また、カメラ部11の視野角は、例えば、横約26°程度、縦約20°程度である。 In the image obtained from the camera unit 11, the range in which the far target unit 2 can be detected is, for example, 512 pixels wide and 400 pixels long. Further, the viewing angle of the camera unit 11 is, for example, about 26 ° in the horizontal direction and about 20 ° in the vertical direction.
例えば、画像処理部12がCPUを有している場合、記憶部13から遠方目標検出プログラムが読み出されると、画像処理部12に読み込まれ、画像処理部12の動作を制御する。画像処理部12は、遠方目標検出プログラムが起動されると、遠方目標検出プログラムの制御により、上記した遠方目標検出処理を実行するのである。 For example, when the image processing unit 12 has a CPU, when a remote target detection program is read from the storage unit 13, the remote processing target detection program is read into the image processing unit 12 and controls the operation of the image processing unit 12. When the far target detection program is activated, the image processing unit 12 executes the far target detection process described above under the control of the far target detection program.
記憶部13は、RAMやROM、あるいはフラッシュメモリ等の半導体メモリからなる。記憶部13には、画像処理部12が実行する遠方目標検出プログラムその他のプログラムや、画像処理部12から供給されるフレームごとの画像データ等が記憶される。また、記憶部13は、画像処理部12が遠方目標検出プログラムを実行する際に作業用として使用される。なお、記憶部13に記憶される各種プログラムや一部のデータについては、画像処理部12を構成するCPU等の内部に設けられたメモリに記憶されるよう構成しても良い。 The storage unit 13 includes a RAM, a ROM, or a semiconductor memory such as a flash memory. The storage unit 13 stores a remote target detection program and other programs executed by the image processing unit 12, image data for each frame supplied from the image processing unit 12, and the like. The storage unit 13 is used for work when the image processing unit 12 executes the far target detection program. Note that various programs and some data stored in the storage unit 13 may be stored in a memory provided in the CPU or the like constituting the image processing unit 12.
車両制御部14は、CPU、DSP、シーケンサ等を有している。車両制御部14は、画像処理部14から供給される遠方目標部2の位置情報に基づいて、操向制御機構15を制御して、移動車両3を遠方目標部2に向けて操向制御する。なお、操向制御機構15の詳細については、例えば、特開2003−118615号公報を参照されたい。表示・操作部16は、例えば、液晶パネル、各種スイッチ、各種ボタンなどから構成され、作業者が移動車両搭載部1を起動したり、各種設定をしたりする際に用いられる。 The vehicle control unit 14 includes a CPU, a DSP, a sequencer, and the like. The vehicle control unit 14 controls the steering control mechanism 15 based on the position information of the far target unit 2 supplied from the image processing unit 14, and steers the moving vehicle 3 toward the far target unit 2. . For details of the steering control mechanism 15, refer to, for example, Japanese Patent Laid-Open No. 2003-118615. The display / operation unit 16 includes, for example, a liquid crystal panel, various switches, various buttons, and the like, and is used when an operator activates the mobile vehicle mounting unit 1 and makes various settings.
以上説明した移動車両搭載部1が搭載された移動車両3は、図1及び図2に示す圃場4内において播種や畝立てなどの作業行程を行うものである。なお、移動車両3のフロント上部略中央には、図1及び図4に示すように、車体マーカー5が取り付けられている。図4の例では、車体マーカー5は、略三角錐形状を呈している。 The mobile vehicle 3 on which the mobile vehicle mounting portion 1 described above is mounted performs a work process such as sowing and setting up in the field 4 shown in FIGS. 1 and 2. Note that a vehicle body marker 5 is attached to the approximate center of the front upper portion of the moving vehicle 3 as shown in FIGS. 1 and 4. In the example of FIG. 4, the vehicle body marker 5 has a substantially triangular pyramid shape.
一方、遠方目標部2は、図1及び図2に示すように、圃場4近傍の地面上に、正面を圃場4側に向けて載置されている。具体的には、圃場4が図2に示す矩形状を呈しており、圃場4を構成する矩形領域の一方の長辺4a側から移動車両3が作業行程を行う場合、例えば、遠方目標部2は、圃場4を構成する矩形領域の一方の短辺4bに接するとともに、移動車両3が最初の作業行程を行う際の車両中心線MC1の延長線上に載置される。 On the other hand, as shown in FIGS. 1 and 2, the far target unit 2 is placed on the ground near the farm field 4 with the front facing the farm field 4 side. Specifically, when the farm field 4 has a rectangular shape shown in FIG. 2 and the moving vehicle 3 performs a work process from one long side 4a side of the rectangular area constituting the farm field 4, for example, the far target unit 2 Is placed on an extension line of the vehicle center line MC1 when the moving vehicle 3 performs the first work process, while being in contact with one short side 4b of the rectangular area constituting the farm field 4.
遠方目標部2は、図1及び図5に示すように、発光部21、制御部22及び電源23が筐体24に収容されている。筐体24は、例えば、馬鈴薯等の収穫物を収容する合成樹脂製の筐体を流用することができる。筐体24の寸法は、例えば、縦約55cm、横約40cmである。筐体24の背面には、制御部22及び電源23が固着されている。制御部22及び23の前面には、筐体24の背面と略同一面積を有し、矩形状を呈している仕切板25が設けられている。この仕切板25の略中央には、発光部21が取り付けられている。発光部21は、複数の発光ダイオード(LED)がマトリックス状に所定間隔をあけて配置されて構成されている。LEDとしては、例えば、車両のウインカーに用いられる高輝度でオレンジ色の光を発光するものが好ましい。 As shown in FIGS. 1 and 5, the far target unit 2 includes a light emitting unit 21, a control unit 22, and a power source 23 housed in a housing 24. As the casing 24, for example, a synthetic resin casing that accommodates a harvested product such as potato can be used. The dimensions of the housing 24 are, for example, about 55 cm in length and about 40 cm in width. A control unit 22 and a power source 23 are fixed to the back surface of the housing 24. On the front surfaces of the control units 22 and 23, a partition plate 25 having substantially the same area as the back surface of the casing 24 and having a rectangular shape is provided. A light emitting unit 21 is attached to the approximate center of the partition plate 25. The light emitting unit 21 is configured by a plurality of light emitting diodes (LEDs) arranged in a matrix at predetermined intervals. As the LED, for example, an LED that emits orange light with high luminance used for a turn signal of a vehicle is preferable.
また、発光部21の縦幅と横幅の比は、例えば、2:1〜4:1の範囲が好ましい。また、発光部21の輪郭形状は、例えば、略矩形状、略楕円状又は略円形状とする。発光部21の輪郭形状を略矩形状とした場合、LEDを、例えば、縦約30cm、横約10cmの範囲に、25行、8列、すなわち、200個配置する。制御部22は、発光部21を構成するすべてのLEDを所定の周期で点滅制御する。 In addition, the ratio of the vertical width to the horizontal width of the light emitting unit 21 is preferably in the range of 2: 1 to 4: 1, for example. Moreover, the outline shape of the light emission part 21 shall be substantially rectangular shape, substantially elliptical shape, or a substantially circular shape, for example. When the contour shape of the light emitting unit 21 is a substantially rectangular shape, for example, 200 LEDs are arranged in 25 rows and 8 columns in a range of about 30 cm in length and about 10 cm in width. The control unit 22 controls blinking of all LEDs constituting the light emitting unit 21 at a predetermined cycle.
この所定の周期は、カメラ部11の撮像周期と最大露光時間とを合計した時間以上であって、かつ、上記撮像周期の2倍の時間以下である範囲で予め設定した時間だけの点灯と、カメラ部11の撮像周期と最大露光時間とを合計した時間以上であって、かつ、上記撮像周期の2倍の時間以下である範囲で予め設定した時間だけの消灯とを繰り返す周期である。例えば、カメラ部11の撮像周期が約0.1秒である場合、発光部21を構成するすべてのLEDを、同時に、約0.2秒間の点灯と約0.2秒間の消灯とを繰り返すように制御部22を設定する。 The predetermined period is not less than the total of the imaging period of the camera unit 11 and the maximum exposure time, and lighting for a preset time in a range that is not more than twice the imaging period, This is a cycle that repeats turning off the light for a preset time in a range that is equal to or longer than the total of the imaging cycle and the maximum exposure time of the camera unit 11 and less than twice the imaging cycle. For example, when the imaging period of the camera unit 11 is about 0.1 second, all the LEDs constituting the light emitting unit 21 are simultaneously turned on for about 0.2 seconds and turned off for about 0.2 seconds. The control unit 22 is set.
上記した所定の周期を定めた理由について説明する。本実施の形態では、コスト抑制の観点から、発光部21の点滅とカメラ部11の撮像の同期は行わず、遠方目標部2及び移動車両搭載部1は、それぞれ独立の動作タイミングで発光部21及びカメラ部11を制御する。上記したように、カメラ部11の撮像周期が約0.1秒である場合に、発光部21を、同時に、約0.1秒間の点灯と約0.1秒間の消灯とを繰り返すように制御部22が制御すると、例えば、カメラ部11の露光中に発光部21が点灯から消灯へ変化するとともに、次の0.1秒後のカメラ部11の露光中には発光部21が消灯から点灯へ変化する場合ある。このような場合には、カメラ部11から得られた画像中の発光部21に対応した部分の輝度は、どちらも中間的な明るさとなり、時間的な変化が生じない状況に陥るおそれがある。 The reason why the predetermined cycle is set will be described. In the present embodiment, from the viewpoint of cost reduction, the flashing of the light emitting unit 21 and the imaging of the camera unit 11 are not synchronized, and the far target unit 2 and the moving vehicle mounting unit 1 are independently operated at the light emitting unit 21. And the camera unit 11 is controlled. As described above, when the imaging period of the camera unit 11 is about 0.1 seconds, the light emitting unit 21 is controlled to repeat lighting for about 0.1 seconds and turning off for about 0.1 seconds at the same time. When the unit 22 controls, for example, the light emitting unit 21 changes from lighting to off during the exposure of the camera unit 11, and the light emitting unit 21 lights up from the off state during the exposure of the camera unit 11 after the next 0.1 second. May change to In such a case, the brightness of the portion corresponding to the light emitting unit 21 in the image obtained from the camera unit 11 is intermediate brightness, and there is a possibility that the situation does not change with time. .
そこで、カメラ部11の露光中は、発光部21が連続して点灯している状態の画像か又は発光部21が連続して消灯している状態の画像のいずれかを確実に撮像できるようにするため、上記したように、発光部21を構成するすべてのLEDを、同時に、約0.2秒間の点灯と約0.2秒間の消灯とを繰り返すように制御部22を設定するのである。また、撮像周期の2倍より長くなると、発光部21の位置を検出できる時間間隔が無用に長くなり、システムの性能を低下させる不都合が生じる。 Therefore, during the exposure of the camera unit 11, it is possible to reliably capture either an image in which the light emitting unit 21 is continuously turned on or an image in which the light emitting unit 21 is continuously turned off. Therefore, as described above, the control unit 22 is set so that all the LEDs constituting the light emitting unit 21 are simultaneously turned on for about 0.2 seconds and turned off for about 0.2 seconds. Moreover, if it becomes longer than twice the imaging cycle, the time interval at which the position of the light emitting unit 21 can be detected becomes unnecessarily long, resulting in inconvenience that the system performance is degraded.
次に、上記構成を有する移動車両の直進誘導システムの動作について説明する。まず、作業者は、図2に示すように、カメラ部11が移動車両3の車両中心線MC1上に搭載されている場合には、移動車両3を誘導するべき軌跡(以下「誘導軌跡」という。)GL1の延長線上に、発光部21の中心線がくるように、発光部21を移動車両3に対向させて遠方目標部2を載置する。図2の例では、車両中心線MC1と誘導軌跡GL1とは重なる。 Next, the operation of the straight traveling guidance system for a moving vehicle having the above configuration will be described. First, as shown in FIG. 2, when the camera unit 11 is mounted on the vehicle center line MC <b> 1 of the moving vehicle 3, the worker is supposed to guide the moving vehicle 3 (hereinafter referred to as “guidance locus”). .) Place the far target unit 2 with the light emitting unit 21 facing the moving vehicle 3 so that the center line of the light emitting unit 21 is on the extended line of GL1. In the example of FIG. 2, the vehicle center line MC1 and the guidance locus GL1 overlap.
一方、カメラ部11が移動車両3の車両中心線MC1から左又は右にオフセットして搭載されている場合には、作業者は、カメラ部11の搭載位置に起因するオフセット量と同じ量だけ、発光部21の中心線を誘導軌跡GL1に対してオフセットした位置において、発光部21を移動車両3に対向させて遠方目標部2を載置する。 On the other hand, when the camera unit 11 is mounted offset to the left or right from the vehicle center line MC1 of the moving vehicle 3, the operator can set the same amount as the offset amount due to the mounting position of the camera unit 11, The far target portion 2 is placed with the light emitting portion 21 facing the moving vehicle 3 at a position where the center line of the light emitting portion 21 is offset with respect to the guidance locus GL1.
次に、作業者は、遠方目標部2を構成する電源23の電源スイッチを投入して、発光部21の点滅動作を開始させる。今の場合、カメラ部11の撮像周期が約0.1秒であるとして、発光部21を構成するすべてのLEDを、一斉に、約0.2秒間の点灯と約0.2秒間の消灯とを繰り返すように制御部22を設定する。これにより、制御部22により制御され、発光部21を構成するすべてのLEDは、一斉に、約0.2秒間の点灯と約0.2秒間の消灯とを繰り返す。 Next, the worker turns on the power switch of the power source 23 constituting the far target unit 2 to start the blinking operation of the light emitting unit 21. In this case, assuming that the imaging period of the camera unit 11 is about 0.1 seconds, all the LEDs constituting the light emitting unit 21 are turned on for about 0.2 seconds and turned off for about 0.2 seconds all at once. The control unit 22 is set so as to repeat. As a result, all the LEDs that are controlled by the control unit 22 and constitute the light emitting unit 21 are repeatedly turned on for about 0.2 seconds and turned off for about 0.2 seconds.
次に、作業者は、移動車両3を運転して圃場4に乗り入れ、図2に示すように、誘導軌跡GL1上に、前進方向が遠方目標部2に対向するように位置づけた後、移動車両搭載部1を起動する。これにより、カメラ部11が撮像周期約0.1秒で遠方目的部2の撮影を開始するとともに、移動車両搭載部1の画像処理部12は、各部を初期化した後、図6及び図7にフローチャートで示す遠方目標検出処理を実行する。ここで、発光部21を構成するすべてのLEDの点滅とカメラ部11の撮像の同期は行わず、遠方目標部2及び移動車両搭載部1は、それぞれ独立の動作タイミングで発光部21及びカメラ部11を制御している。 Next, the operator drives the moving vehicle 3 and enters the farm field 4 and positions the moving vehicle 3 on the guidance trajectory GL1 so that the forward direction faces the far target portion 2 as shown in FIG. The mounting unit 1 is activated. As a result, the camera unit 11 starts photographing of the far object unit 2 with an imaging cycle of about 0.1 seconds, and the image processing unit 12 of the moving vehicle mounting unit 1 initializes each unit, and thereafter, FIG. 6 and FIG. The far target detection process shown in the flowchart is executed. Here, the blinking of all the LEDs constituting the light emitting unit 21 and the image capturing of the camera unit 11 are not synchronized, and the far target unit 2 and the moving vehicle mounting unit 1 are independent of each other with the light emitting unit 21 and the camera unit at independent operation timings. 11 is controlled.
まず、画像処理部12は、図6に示すステップS1の処理へ進み、カメラ部11から1フレーム分の画像信号が供給された否かを判断する。ステップS1の判断結果が「NO」の場合には、画像処理部12は、同判断を繰り返す。一方、カメラ部11は、圃場4近傍の地面上に正面を圃場4側に向けて載置されている遠方目標部2を撮像周期約0.1秒で撮影し、撮影した画像に対応した1フレーム分の画像信号を画像処理部12に順次供給する。 First, the image processing unit 12 proceeds to the process of step S1 shown in FIG. 6 and determines whether or not an image signal for one frame is supplied from the camera unit 11. If the determination result in step S1 is “NO”, the image processing unit 12 repeats the determination. On the other hand, the camera unit 11 shoots the distant target unit 2 placed on the ground near the farm field 4 with the front side facing the farm field 4 in an imaging cycle of about 0.1 seconds, and corresponds to the photographed image 1 Image signals for frames are sequentially supplied to the image processing unit 12.
これにより、ステップS1の判断結果が「YES」となり、画像処理部12は、ステップS2へ進む。ステップS2では、画像処理部12は、カメラ部11から供給された1フレーム分のアナログの画像信号をデジタルの画像データにアナログ/デジタル変換処理し、記憶部13に記憶した後、ステップS3へ進む。この場合、縦30cmの発光部21の画像上での大きさは、100m先で2画素弱となる。しかし、実際の画像では、カメラ部11を構成する光学系の収差などの影響により発光部21の像は膨張し、100m以上先の遠方目標部2を検出することが可能となる。 Thereby, the determination result of step S1 is “YES”, and the image processing unit 12 proceeds to step S2. In step S2, the image processing unit 12 performs analog / digital conversion processing of the analog image signal for one frame supplied from the camera unit 11 into digital image data, stores the digital image data in the storage unit 13, and then proceeds to step S3. . In this case, the size of the light emitting unit 21 30 cm long on the image is less than 2 pixels 100 m away. However, in the actual image, the image of the light emitting unit 21 expands due to the influence of the aberration of the optical system constituting the camera unit 11 and it becomes possible to detect the far target unit 2 100 m or more away.
ステップS3では、画像処理部12は、第1のウィンドウ位置の設定処理を行った後、ステップS4へ進む。以下、第1のウィンドウ位置の設定処理について説明する。まず、カメラ部11で撮影され、画像処理部12によりデジタル化された画像の一例を図8及び図9にそれぞれ示す。図8は、現在より1つ前の撮像周期の際(すなわち、約0.1秒前)に撮影されデジタル化された画像(以下「前フレームの画像」という)の一例である。図8では、略中央に遠方目標部2が存在し、この遠方目標部2を取り囲んで、検出処理を行う範囲であるウィンドウW-1が設定されている。ウィンドウW-1のサイズは、例えば、横約56画素、縦約40画素である。他の第1のウィンドウW0等のサイズも略同様である。これに対し、図9は、図8に示す画像の次の撮像周期の際(すなわち、約0.1秒後)に撮影されデジタル化された画像(以下「現フレームの画像」という)の一例である。 In step S3, the image processing unit 12 performs the first window position setting process, and then proceeds to step S4. The first window position setting process will be described below. First, examples of images taken by the camera unit 11 and digitized by the image processing unit 12 are shown in FIGS. FIG. 8 is an example of an image (hereinafter, referred to as “image of the previous frame”) that has been captured and digitized during the imaging cycle immediately before the current time (that is, approximately 0.1 seconds before). In FIG. 8, the far target unit 2 exists at substantially the center, and a window W -1 surrounding the far target unit 2 and performing detection processing is set. The size of the window W −1 is, for example, about 56 pixels wide and about 40 pixels long. The sizes of the other first windows W 0 and the like are substantially the same. On the other hand, FIG. 9 shows an example of an image (hereinafter referred to as “image of the current frame”) that is captured and digitized during the next imaging cycle of the image shown in FIG. 8 (that is, after about 0.1 second). It is.
移動車両3は、前進走行する際に、圃場4の表面状態等に応じて、その進行する向きや車体の傾きが変化するため、カメラ部11で撮像される画像も、前の撮像周期に撮影された画像と比べて、全体的に上下又は左右あるいはこれらの両方にずれていることが多い。図9に示す現フレームの画像における第1のウィンドウW0は、図8に示す前フレームの画像におけるウィンドウW-1と同一位置、すなわち、1フレームの画像において、基準点BPから同一の位置に設定したものである。しかし、移動車両3が図8に示す画像を撮影した位置から移動したために、図8に示す前フレームの画像におけるウィンドウW-1内の遠方目標部2の相対位置と、図9に示す現フレームの画像における第1のウィンドウW0内の遠方目標部2の相対位置とは、異なっている。したがって、このような状態において、単純に図8に示す画像と図9に示す画像との差分を計算した場合、点滅する発光部21を正確に抽出することは困難となる。 When the moving vehicle 3 travels forward, the traveling direction and the inclination of the vehicle body change according to the surface state of the field 4 and the like, so that the image captured by the camera unit 11 is also captured at the previous imaging cycle. In many cases, the image is shifted up and down, left and right, or both, as compared with the displayed image. The first window W 0 in the current frame image shown in FIG. 9 is the same position as the window W −1 in the previous frame image shown in FIG. 8, ie, the same position from the reference point BP in the one frame image. It is set. However, since the moving vehicle 3 has moved from the position where the image shown in FIG. 8 is taken, the relative position of the far target portion 2 in the window W- 1 in the image of the previous frame shown in FIG. 8 and the current frame shown in FIG. This is different from the relative position of the far target portion 2 in the first window W 0 in this image. Therefore, when the difference between the image shown in FIG. 8 and the image shown in FIG. 9 is simply calculated in such a state, it is difficult to accurately extract the flashing light emitting unit 21.
そこで、図9に示す現フレームの画像の中から、図8に示す前フレームの画像におけるウィンドウW-1に相当する画像部分を抽出する対応探索処理を行う。まず、図9に示す現フレームの画像において、図8に示す前フレームの画像におけるウィンドウW-1と同一の位置の周囲に、破線で示すような探索範囲SAを設定する。探索範囲SAは、例えば、撮像周期である約0.1秒間に想定される移動車両3の動きの速さと、画像処理部12の計算処理能力等が考慮されて決定され、例えば、上下、左右にそれぞれ10画素程度の範囲の探索を行う。 Therefore, a correspondence search process for extracting an image portion corresponding to the window W −1 in the image of the previous frame shown in FIG. 8 from the image of the current frame shown in FIG. 9 is performed. First, in the current frame image shown in FIG. 9, a search range SA as shown by a broken line is set around the same position as the window W- 1 in the previous frame image shown in FIG. The search range SA is determined in consideration of, for example, the speed of movement of the moving vehicle 3 assumed in about 0.1 seconds that is the imaging cycle, the calculation processing capability of the image processing unit 12, and the like, for example, up and down, left and right Each of these is searched for a range of about 10 pixels.
この対応探索処理では、例えば、図9に示す現フレームの画像の探索範囲SA内において、前フレームの画像におけるウィンドウW-1との相関値が最大となる部分を求める手法などを用いる。この相関値としては、例えば、2フレーム分の画像の差の二乗和や絶対値和など、公知の手法により求められる値が適用可能である。画像処理部12は、以上説明した手法を用いて、図9に示す現フレームの画像の中から、図8に示す前フレームの画像におけるウィンドウW-1に相当する画像部分を抽出し、現フレームの画像における第1のウィンドウW0として設定し、その位置を記憶部13に記憶する。この処理を行うことにより、遠方目標部2を検出可能な視野範囲は、カメラ部11の画像全体に渡ってウィンドウを移動させて、広く確保することができるとともに、例えば、ウィンカーを点滅させた自動車などがカメラ部11の視野内の周辺部に入り込むような場合でも、その影響を受け難くすることができる。また、検出処理をウィンドウ内に限定することにより、処理時間の短縮にも大きく寄与することができる。 In this correspondence search process, for example, a method is used in which, within the search range SA of the current frame image shown in FIG. 9, a portion having the maximum correlation value with the window W −1 in the previous frame image is used. As this correlation value, for example, a value obtained by a known method such as a sum of squares or a sum of absolute values of differences between two frames of images can be applied. The image processing unit 12 extracts the image portion corresponding to the window W −1 in the previous frame image shown in FIG. 8 from the current frame image shown in FIG. Is set as the first window W 0 in the image and the position is stored in the storage unit 13. By performing this process, the visual field range in which the far target unit 2 can be detected can be widened by moving the window over the entire image of the camera unit 11 and, for example, an automobile with blinking blinkers Even if it enters into the peripheral part within the field of view of the camera unit 11, it can be made less susceptible to the influence. Further, limiting the detection process within the window can greatly contribute to shortening of the processing time.
ステップS4では、画像処理部12は、第2のウィンドウ位置の設定処理を行った後、ステップS5へ進む。以下、第2のウィンドウ位置の設定処理について説明する。まず、ステップS3と同様に、カメラ部11で撮影され、画像処理部12によりデジタル化された画像として、図示しない現在より2つ前の撮像周期の際(すなわち、約0.2秒前)に撮影されデジタル化された画像(以下「前々フレームの画像」という)がある。前々フレームの画像において、遠方目標部2を取り囲んで、検出処理を行う範囲であるウィンドウW-2が設定されている。ウィンドウW-2のサイズは、ウィンドウW-1のサイズと同様である。移動車両3は、前々フレームと現フレームの撮像の約0.2秒間に前進走行し、進行する向きや車体の傾きが変化するため、カメラ部11で撮像される画像も、全体的に上下又は左右あるいはこれらの両方にずれていることが多い。 In step S4, the image processing unit 12 performs the second window position setting process, and then proceeds to step S5. The second window position setting process will be described below. First, as in step S3, an image taken by the camera unit 11 and digitized by the image processing unit 12 is taken at the time of an imaging cycle two times before the current time (not shown) (that is, about 0.2 seconds before). There is a photographed and digitized image (hereinafter referred to as “image of the previous frame”). In the image of the previous frame, a window W - 2 that surrounds the far target portion 2 and is a range in which detection processing is performed is set. The size of the window W- 2 is the same as the size of the window W- 1 . The moving vehicle 3 travels forward for about 0.2 seconds before the imaging of the frame and the current frame, and the traveling direction and the inclination of the vehicle body change. Or it is often shifted to the left or right or both.
そこで、図9に示す現フレームの画像の中から、前々フレームの画像におけるウィンドウW-2に相当する画像部分を抽出する対応探索処理を行う。まず、ステップS3と同様に、図9に示す現フレームの画像において、前々フレームの画像におけるウィンドウW-2と同一の位置の周囲に、破線で示すような探索範囲SAを設定する。探索範囲SAは、ステップS3と同様に、例えば、上下、左右にそれぞれ10画素程度の範囲の探索を行う。 Therefore, correspondence search processing is performed to extract an image portion corresponding to the window W -2 in the image of the previous frame from the image of the current frame shown in FIG. First, similarly to step S3, in the current frame image shown in FIG. 9, a search range SA as indicated by a broken line is set around the same position as the window W- 2 in the previous frame image. As in step S3, for example, the search range SA searches for a range of about 10 pixels vertically and horizontally.
この対応探索処理では、例えば、図9に示す現フレームの画像の探索範囲SA内において、前々フレームの画像におけるウィンドウW-2との相関値が最大となる部分を求める手法などを用いる。この相関値としては、ステップS3と同様に、例えば、2フレーム分の画像の差の二乗和や絶対値和など、公知の手法により求められる値が適用可能である。画像処理部12は、以上説明した手法を用いて、図9に示す現フレームの画像の中から、前々フレームの画像におけるウィンドウW-2に相当する画像部分を抽出し、現フレームの画像における第2のウィンドウW02として設定し、その位置を記憶部13に記憶する。 In this correspondence search process, for example, a method is used in which, within the search range SA of the current frame image shown in FIG. 9, a portion having the maximum correlation value with the window W -2 in the image of the previous frame is used. As this correlation value, as in step S3, for example, a value obtained by a known method such as a square sum or a sum of absolute values of differences between images of two frames can be applied. Using the method described above, the image processing unit 12 extracts an image portion corresponding to the window W -2 in the previous frame image from the current frame image shown in FIG. The second window W 02 is set and the position is stored in the storage unit 13.
ステップS5では、画像処理部12は、第1の遠方目標部候補画素抽出処理を行った後、ステップS6へ進む。以下、第1の遠方目標部候補画素抽出処理について説明する。図10(a)の左及び中央に、現フレームの画像における第1のウィンドウW0及び前フレームの画像におけるウィンドウW-1のそれぞれの一例を示す。この第1の遠方目標部候補画素抽出処理では、現フレームの画像における第1のウィンドウW0と、前フレームの画像におけるウィンドウW-1とを比較し、式(1)及び式(2)に示す条件をいずれも満たす画素を第1の遠方目標部候補画素として二値化して抽出する。 In step S5, the image processing unit 12 performs the first far target portion candidate pixel extraction process, and then proceeds to step S6. Hereinafter, the first far target portion candidate pixel extraction process will be described. An example of each of the first window W 0 in the image of the current frame and the window W −1 in the image of the previous frame is shown in the left and center of FIG. In the first far target portion candidate pixel extraction process, the first window W 0 in the current frame image is compared with the window W −1 in the previous frame image, and the following equations (1) and (2) are obtained. Pixels that satisfy all of the conditions shown are binarized and extracted as first far target portion candidate pixels.
Tdf≦|P0(i,j)一P-1(i,j)| …(1)
Tbr≦P0(i,j)又はTbr≦P-1(i,j) …(2)
式(1)及び式(2)において、P0(i,j)は、現フレームの画像における第1のウィンドウW0内の各画素の輝度、P-1(i,j)は、前フレームの画像におけるウィンドウW-1内の各画素の輝度、Tdfは、輝度差に関する第1の閾値、Tbrは、輝度に関する第2の閾値である。例えば、画像が256階調でデジタル化されている場合では、Tdfは36程度、Tbrは160程度の値である。
Tdf ≦ | P 0 (i, j) −P −1 (i, j) | (1)
Tbr ≦ P 0 (i, j) or Tbr ≦ P −1 (i, j) (2)
In Expressions (1) and (2), P 0 (i, j) is the luminance of each pixel in the first window W 0 in the image of the current frame, and P −1 (i, j) is the previous frame. The luminance of each pixel in the window W −1 , Tdf is a first threshold relating to the luminance difference, and Tbr is a second threshold relating to the luminance. For example, when the image is digitized with 256 gradations, Tdf is about 36 and Tbr is about 160.
すなわち、この第1の遠方目標部候補画素抽出処理では、現フレームの画像と前フレームの画像との間において、輝度差が第1の閾値Tdf以上に大きく、かつ、いずれかの画像において第2の閾値Tbr以上に輝度が大きい画素について、遠方目標部2である可能性が高い候補画素、すなわち、第1の遠方目標部候補画素として、二値化して抽出するのである。 That is, in the first far target portion candidate pixel extraction process, the luminance difference between the current frame image and the previous frame image is greater than or equal to the first threshold Tdf, and the second difference is detected in any image. A pixel having a luminance greater than or equal to the threshold value Tbr is binarized and extracted as a candidate pixel that is highly likely to be the far target portion 2, that is, the first far target portion candidate pixel.
ここで、図10(b)の左に、第1の遠方目標部候補画素の一例を示す。図10(b)の左の例は、現フレームの画像における第1のウィンドウW0及び前フレームの画像におけるウィンドウW-1では、いずれも発光部21が点灯状態であったため、発光部21の部分に輝度差がなく、第1の遠方目標部候補画素として抽出されなかったことを示している。 Here, an example of the first far target portion candidate pixel is shown on the left side of FIG. In the example on the left in FIG. 10B, the light emitting unit 21 is lit in both the first window W 0 in the current frame image and the window W −1 in the previous frame image. This indicates that there is no luminance difference in the portion, and it has not been extracted as the first far target portion candidate pixel.
一方、例えば、遠方目標部2の背景にある木々の枝葉が風によって揺れた場合や、ステップS3の対応探索処理において前フレームの画像におけるウィンドウW-1に相当する画像部分を抽出する際に、ウィンドウW-1の位置に誤差や残差が発生して位置ずれが生じた場合などには、第1の遠方目標部候補画素として誤抽出が発生する場合もある。図10(b)の左の例において、上部に示した白色部分は、上記した遠方目標部2以外のノイズ的に誤抽出された画素の例を示している。 On the other hand, for example, when the branches and leaves of the trees in the background of the far target unit 2 are shaken by the wind, or when extracting the image portion corresponding to the window W −1 in the image of the previous frame in the correspondence search process in step S3, When an error or a residual occurs in the position of the window W −1 and a position shift occurs, an erroneous extraction may occur as the first far target portion candidate pixel. In the example on the left in FIG. 10B, the white portion shown at the top indicates an example of a pixel erroneously extracted other than the far target portion 2 described above.
ステップS6では、画像処理部12は、第2の遠方目標部候補画素抽出処理を行った後、ステップS7へ進む。以下、第2の遠方目標部候補画素抽出処理について説明する。図10(a)の右に、前々フレームの画像におけるウィンドウW-2の一例を示す。この第2の遠方目標部候補画素抽出処理では、図示しない現フレームの画像における第2のウィンドウW02と、前々フレームの画像におけるウィンドウW-2とを比較し、式(3)及び式(4)に示す条件をいずれも満たす画素を第2の遠方目標部候補画素として二値化して抽出する。ここで、ウィンドウの位置は、遠方目標部2の検出処理の後に、発光部21の部分がウィンドウの中心になるように、ウィンドウの位置を再設定するので、ウィンドウW-1とウィンドウW-2は、概ね同じ位置となり、このため、現フレームの画像における第1のウィンドウW0と第2のウィンドウW02も、概ね同じ位置となる。 In step S6, the image processing unit 12 performs the second far target portion candidate pixel extraction process, and then proceeds to step S7. Hereinafter, the second far target portion candidate pixel extraction process will be described. An example of the window W -2 in the image of the previous frame is shown on the right side of FIG. In the second far target portion candidate pixel extraction process, the second window W 02 in the current frame image (not shown) is compared with the window W -2 in the previous frame image, and the expressions (3) and ( Pixels satisfying all the conditions shown in 4) are binarized and extracted as second far target candidate pixels. Here, since the position of the window is reset so that the portion of the light emitting unit 21 becomes the center of the window after the detection processing of the far target unit 2, the window W- 1 and the window W- 2 are set. Are substantially the same position, and therefore, the first window W 0 and the second window W 02 in the image of the current frame are also substantially the same position.
Tdf≦|P0(i,j)一P-2(i,j)| …(3)
Tbr≦P0(i,j)又はTbr≦P-2(i,j) …(4)
式(3)及び式(4)において、P0(i,j)は、現フレームの画像における第2のウィンドウW02内の各画素の輝度、P-2(i,j)は、前々フレームの画像におけるウィンドウW-2内の各画素の輝度、Tdfは、輝度差に関する第1の閾値、Tbrは、輝度に関する第2の閾値である。
Tdf ≦ | P 0 (i, j) −P −2 (i, j) | (3)
Tbr ≦ P 0 (i, j) or Tbr ≦ P −2 (i, j) (4)
In Expressions (3) and (4), P 0 (i, j) is the luminance of each pixel in the second window W 02 in the current frame image, and P −2 (i, j) is the previous time. The luminance of each pixel in the window W -2 in the image of the frame, Tdf is a first threshold relating to the luminance difference, and Tbr is a second threshold relating to the luminance.
この第2の遠方目標部候補画素抽出処理を行うのは以下に示す理由による。すなわち、本実施の形態では、発光部21の点灯時間及び消灯時間は、カメラ部11の撮像周期の約2倍に設定されている。したがって、現フレームの画像及び前フレームの画像は、いずれも点灯状態にある発光部21を撮影したものであったり、逆にいずれも消灯状態にある発光部21を撮影したものであったりする場合がある。このため、上記した現フレームの画像における第1のウィンドウW0及び前フレームの画像におけるウィンドウW-1との差分処理によって抽出された第1の遠方目標部候補画素では、目標とする遠方目標部2が抽出されない場合がある。そこで、この第2の遠方目標部候補画素抽出処理では、現フレームの画像における第2のウィンドウW02及び前々フレームの画像におけるウィンドウW-2に対して、上記した式(3)及び式(4)に示す条件を適用して差分処理を行うことにより、第2の遠方目標部候補画素を抽出するのである。 The reason for performing the second far target portion candidate pixel extraction process is as follows. That is, in the present embodiment, the lighting time and extinguishing time of the light emitting unit 21 are set to about twice the imaging cycle of the camera unit 11. Therefore, when the current frame image and the previous frame image are both images of the light emitting unit 21 in the lit state, or conversely, both are images of the light emitting unit 21 in the unlit state. There is. Therefore, in the first far target portion candidate pixel extracted by the difference processing between the first window W 0 in the current frame image and the window W −1 in the previous frame image, the target far target portion 2 may not be extracted. Therefore, in this second distal target portion candidate pixel extraction process, with respect to the window W -2 in the second window W 02 and before the previous frame of the image in the image of the current frame, the above-mentioned equations (3) and ( The second far target portion candidate pixel is extracted by performing the difference processing by applying the condition shown in 4).
すなわち、この第2の遠方目標部候補画素抽出処理では、現フレームの画像と前々フレームの画像との間において、輝度差が第1の閾値Tdf以上に大きく、かつ、いずれかの画像において第2の閾値Tbr以上に輝度が大きい画素について、遠方目標部2である可能性が高い候補画素、すなわち、第2の遠方目標部候補画素として、二値化して抽出するのである。 That is, in the second far target portion candidate pixel extraction process, the luminance difference between the current frame image and the previous frame image is greater than or equal to the first threshold value Tdf, and any image has the first difference. A pixel having a luminance greater than or equal to the threshold value Tbr of 2 is binarized and extracted as a candidate pixel that is highly likely to be the far target portion 2, that is, a second far target portion candidate pixel.
ここで、図10(b)の右に、第2の遠方目標部候補画素の一例を示す。図10(b)の右の例は、現フレームの画像における第2のウィンドウW02では発光部21が点灯状態であるが、前々フレームの画像におけるウィンドウW-2では発光部21が消灯状態である。したがって、発光部21の部分に輝度差があり、第2の遠方目標部候補画素として抽出されたことを示している。なお、図10(b)の右の例において、上部に示した白色部分は、図10(b)の左の例と同様に、上記した遠方目標部2以外のノイズ的に誤抽出された画素の例を示している。 Here, an example of the second far target portion candidate pixel is shown on the right side of FIG. Right example of FIG. 10 (b), although the light emitting portion 21 in the second window W 02 in the image of the current frame is the lighting state, the light emitting portion 21 in the window W -2 in the image of the second previous frame is turned off It is. Therefore, there is a luminance difference in the portion of the light emitting unit 21, indicating that it has been extracted as the second far target portion candidate pixel. In the right example of FIG. 10B, the white portion shown in the upper part is a pixel that is erroneously extracted other than the above-described far target portion 2 as in the left example of FIG. 10B. An example is shown.
ステップS7では、画像処理部12は、統合処理を行った後、ステップS8へ進む。以下、統合処理について説明する。この統合処理では、ステップS5の処理で得られた第1の遠方目標部候補画素と、ステップS6の処理で得られた第2の遠方目標部候補画素とについて、論理和条件に基づいて、統合化することにより、1個の画像データを生成する。ここで、図10(c)に、図10(b)の左に示す第1の遠方目標部候補画素の一例と、図10(b)の右に示す第2の遠方目標部候補画素の一例とを統合した結果の一例を示す。このように、遠方目標部候補画素を1つに統合することで、後述するステップS8以降の処理を簡素化することができる。 In step S7, the image processing unit 12 performs the integration process, and then proceeds to step S8. Hereinafter, the integration process will be described. In this integration process, the first far target portion candidate pixel obtained in step S5 and the second far target portion candidate pixel obtained in step S6 are integrated based on the logical sum condition. As a result, one piece of image data is generated. Here, FIG. 10C shows an example of the first far target portion candidate pixel shown on the left of FIG. 10B and an example of the second far target portion candidate pixel shown on the right of FIG. An example of the result of integrating and is shown. In this way, by integrating the far target portion candidate pixels into one, the processing after step S8 described later can be simplified.
ステップS8では、画像処理部12は、グループ化・評価処理を行った後、図7に示すステップS9へ進む。以下、グループ化・評価処理について説明する。ステップS7に示す統合処理で抽出された遠方目標部候補画素の画像データには、ノイズなどに起因する画素も含まれるので、それらの画素を除去する必要がある。抽出された遠方目標部候補画素の画像データを構成する各画素は二値化されており、これらの画素を互いに隣接する、例えば、ある画素が遠方目標部候補画素であれば、その画像上で、上下、左右の4方向に隣接する画素を調べ、それらを遠方目標部候補画素であれば、同じグループとしてグループ化して、画素グループを生成する。次に、各画素グループに対して、面積、アスペクト比、中心座標などを算出する。次に、面積が所定の閾値より小さい又はアスペクト比が所定の閾値より極端に大きい画素グループは、ノイズ等と見なして除去する。また、除去されずに残った画素グループの中であっても、不自然な突起などを含む場合は、当該突起などを除去して整形する。このように、個々の遠方目標部候補画素を画素グループにまとめることで、面積や縦横比などの新たな特徴量を抽出することが可能となり、さらに、これらの特徴量を評価して、ノイズ等との判別が可能となる効果がある。 In step S8, the image processing unit 12 performs the grouping / evaluation process, and then proceeds to step S9 shown in FIG. Hereinafter, the grouping / evaluation process will be described. Since the image data of the far target portion candidate pixels extracted by the integration process shown in step S7 includes pixels due to noise or the like, these pixels need to be removed. Each pixel constituting the image data of the extracted far target candidate pixel is binarized, and these pixels are adjacent to each other. For example, if a certain pixel is a far target candidate pixel, Then, the pixels adjacent in the four directions of top, bottom, left and right are examined, and if they are far target part candidate pixels, they are grouped as the same group to generate a pixel group. Next, the area, aspect ratio, center coordinates, and the like are calculated for each pixel group. Next, a pixel group whose area is smaller than a predetermined threshold or whose aspect ratio is extremely larger than the predetermined threshold is regarded as noise and removed. Further, even in the pixel group that remains without being removed, if the projection includes an unnatural projection or the like, the projection is removed and shaped. In this way, by grouping individual far target candidate pixels into pixel groups, it is possible to extract new feature quantities such as area and aspect ratio, and further evaluate these feature quantities to determine noise, etc. There is an effect that it can be discriminated.
ステップS9では、画像処理部12は、時間的追跡処理を行った後、ステップS10へ進む。以下、時間的追跡処理について説明する。今回の現フレームの画像に関する処理以前に既にカメラ部11から供給され、上記したステップS1〜S8の処理が施されて抽出され、記憶部13に記憶されている画素グループを登録グループと呼ぶ。この時間的追跡処理では、現フレームの画像に関する上記ステップS1〜S8の処理により抽出された複数の画素グループと、上記記憶部に記憶され読み出された複数の登録グループとについて、それぞれの対応関係を求め、時間的な追跡処理を行う。 In step S9, the image processing unit 12 performs temporal tracking processing, and then proceeds to step S10. Hereinafter, the temporal tracking process will be described. A pixel group that has already been supplied from the camera unit 11 before the processing related to the current frame image, extracted by performing the above-described steps S1 to S8, and stored in the storage unit 13 is referred to as a registered group. In this temporal tracking process, the correspondence between the plurality of pixel groups extracted by the processes in steps S1 to S8 related to the image of the current frame and the plurality of registered groups stored in the storage unit and read out. For time tracking.
この対応関係の探索では、まず、各画素グループの面積、縦横比、中心座標などのパラメータの類似度を評価し、類似度が所定の閾値以上であって、かつ、最大値をとる組み合わせを、対応する画素グループと判定する。次に、現フレームの画像に関する上記ステップS1〜S8の処理により抽出された複数の画素グループのパラメータにより、記憶部13に記憶されている登録グループのパラメータを更新する。また、現フレームの画像に関する上記ステップS1〜S8の処理により抽出された複数の画素グループのうち、登録グループとの対応関係が取れなかった画素グループは、新しい登録グループとして記憶部13に追加する。このように、時間的追跡処理を行うことにより、後述するステップ10でのパラメータ算出処理が可能となる。 In the search for the correspondence relationship, first, the similarity of parameters such as the area, aspect ratio, and center coordinates of each pixel group is evaluated, and a combination in which the similarity is equal to or greater than a predetermined threshold value and has a maximum value is obtained. A corresponding pixel group is determined. Next, the registered group parameters stored in the storage unit 13 are updated with the parameters of the plurality of pixel groups extracted by the processes in steps S1 to S8 related to the image of the current frame. In addition, among the plurality of pixel groups extracted by the processes in steps S1 to S8 related to the image of the current frame, a pixel group that does not have a corresponding relationship with the registered group is added to the storage unit 13 as a new registered group. In this way, by performing the temporal tracking process, the parameter calculation process in step 10 described later becomes possible.
ステップS10では、画像処理部12は、パラメータ算出処理を行った後、ステップS11へ進む。以下、パラメータ算出処理について説明する。このパラメータ算出処理では、画像処理部12は、記憶部13に記憶されている各登録グループを構成する各画素について、現フレームの画像における輝度の平均値(以下「現輝度平均値」という。)と、前フレームの画像における輝度の平均値(以下「前輝度平均値」という。)とをそれぞれ計算した後、現輝度平均値から前輝度平均値を減算した値(以下「輝度差」という。)を記憶部13に記憶する。上記輝度差が正の値である場合には、発光部21は明るくなった、すなわち“点灯”であると認定できる一方、上記輝度差が負の値である場合には、発光部21は暗くなった、すなわち“消灯”であると認定できる。 In step S10, the image processing unit 12 performs parameter calculation processing, and then proceeds to step S11. Hereinafter, the parameter calculation process will be described. In this parameter calculation process, the image processing unit 12 averages the luminance in the image of the current frame (hereinafter referred to as “current luminance average value”) for each pixel constituting each registered group stored in the storage unit 13. And an average value of luminance in the image of the previous frame (hereinafter referred to as “previous luminance average value”), and then a value obtained by subtracting the previous luminance average value from the current luminance average value (hereinafter referred to as “luminance difference”). ) Is stored in the storage unit 13. When the luminance difference is a positive value, the light emitting unit 21 is brightened, that is, it can be recognized as “lighting”, while when the luminance difference is a negative value, the light emitting unit 21 is dark. That is, it can be recognized that it is “lights out”.
そして、上記輝度差の値を、例えば、過去5回から10回の点滅サイクル分、すなわち、例えば、発光部21の点滅サイクルが約0.4秒である場合、2秒〜4秒間分を記憶部13に記憶する。次に、画像処理部12は、記憶部13に記憶されている各フレームの画像ごとの上記輝度差の値から、“明るくなる”と“暗くなる”の時間間隔を解析し、周期的に点滅しているか否かについて認定するとともに、その点滅周期について算出する。 For example, when the flashing cycle of the light emitting unit 21 is about 0.4 seconds, the value of the luminance difference is stored for 2 to 4 seconds, for example, for the past 5 to 10 flashing cycles. Store in the unit 13. Next, the image processing unit 12 analyzes the time interval between “brighter” and “darker” from the brightness difference value for each image of each frame stored in the storage unit 13, and periodically blinks. And whether or not the blinking cycle is calculated.
次に、画像処理部12は、各登録グループについて、設定されたウィンドウW上における中心座標の値を、例えば、過去10回から20回分の処理について記憶部13に記憶するとともに、その間の中心座標のばらつき度合いとして、標準偏差(分散)の値を計算した後、記憶部13に記憶する。 Next, for each registered group, the image processing unit 12 stores, for example, the value of the center coordinate on the set window W in the storage unit 13 for, for example, processing for the past 10 to 20 times, and the center coordinate therebetween. After calculating the standard deviation (variance) value as the degree of variation, the value is stored in the storage unit 13.
ステップS11では、画像処理部12は、遠方目標部判定処理を行った後、ステップS12へ進む。以下、遠方目標部判定処理について説明する。上記したステップS7に示す統合処理で抽出された遠方目標部候補画素の画像データには、図10(c)に示すように、遠方目標部2の画素の他にノイズ的な画素も含まれるため、抽出された登録グループの中には、ノイズ的な要因による登録グループも存在する。 In step S11, the image processing unit 12 performs the far target portion determination process, and then proceeds to step S12. Hereinafter, the far target portion determination process will be described. As shown in FIG. 10C, the image data of the far target portion candidate pixels extracted by the integration process shown in step S7 described above includes a noisy pixel in addition to the far target portion 2 pixels. Among the extracted registration groups, there are also registration groups due to noise factors.
まず、遠方目標部2の背景にある木々の枝葉などが風に揺れること等によって発生する画像の時間的な明暗変化は、周期的となる場合がある。しかし、このような周期的な明暗変化を示す画素は、固定された遠方目標部2と比較して、検出される位置のばらつき度合いが大きくなる傾向があり、上記した中心座標の標準偏差の値が大きくなる傾向を示すので、上記標準偏差が所定の閾値を超える場合は、この指標によって登録グループから判別・除外される。 First, the temporal change in brightness of an image that occurs when the branches and leaves of trees in the background of the far target unit 2 sway in the wind may be periodic. However, pixels that exhibit such a periodic change in brightness tend to have a greater degree of variation in the detected position than the fixed far target portion 2, and the value of the standard deviation of the center coordinate described above. Therefore, when the standard deviation exceeds a predetermined threshold, it is discriminated / excluded from the registered group by this index.
次に、移動車両3は、前進走行する際に、圃場4の表面状態等に応じて、その進行する向きや車体の傾きが変化するため、カメラ部11で撮像される画像も、前の撮像周期に撮影された画像と比べて、全体的に上下又は左右あるいはこれらの両方にずれていることが多い。したがって、上記したように、ステップS3及び4において、第1及び第2のウィンドウ位置設定処理を行うが、この際のウィンドウ設定位置の誤差や残差に起因して、抽出された登録グループの中には、ノイズ的な要因による登録グループも存在する。しかし、このような要因によるノイズ的な画素は、周期的な明暗変化とはなり難い傾向にある。このため、検出された点滅周期の値が、遠方目標部2を構成する発光部21の点滅周期と大きく異なる場合、又は、その周期性の強さが所定の閾値以下の場合は、この周期性の指標によって登録グループから判別・除外される。 Next, when the moving vehicle 3 travels forward, the traveling direction and the inclination of the vehicle body change according to the surface state of the farm field 4 and the like. Compared to images taken periodically, there are many cases where the entire image is shifted vertically or horizontally or both. Therefore, as described above, in steps S3 and S4, the first and second window position setting processes are performed. Due to the error and residual of the window setting position at this time, the extracted registration groups are not registered. There are also registered groups due to noise factors. However, noisy pixels due to such factors tend not to cause periodic brightness changes. For this reason, when the value of the detected blinking cycle is significantly different from the blinking cycle of the light emitting unit 21 constituting the far target unit 2, or when the intensity of the periodicity is equal to or less than a predetermined threshold, this periodicity It is discriminated and excluded from the registered group by the index of.
さらに、残った登録グループについて、中心座標の標準偏差の値、点滅周期と周期性の強さの値、さらに、各登録グループの面積、縦横比、検出された回数などを、遠方目標部2らしさの評価として評点化して積算し、その値が所定の閾値以上であって、かつ、最大となった登録グループを、遠方目標部2であると判定する。 Furthermore, for the remaining registered groups, the values of the standard deviation of the central coordinates, the blinking period and the strength of periodicity, the area of each registered group, the aspect ratio, the number of detections, etc. As the evaluation, the score is integrated and integrated, and the registered group whose value is equal to or greater than a predetermined threshold value and the maximum is determined to be the far target unit 2.
ステップS12では、画像処理部12は、制御データ出力処理を行った後、ステップS13へ進む。以下、制御データ出力処理について説明する。この制御データ出力処理では、画像処理部12は、ステップS11の処理で遠方目標部2であると判定された登録グループについては、図11に示すような画像全体における左右方向の中心座標iclと、予め計測されている移動車両3の正面方向の画像全体における座標値ivとを比較し、式(5)に基づいて、移動車両3と遠方目標部2の方向とのずれ角度θ1を算出した後、車両制御部14に供給する。 In step S12, the image processing unit 12 performs control data output processing, and then proceeds to step S13. Hereinafter, the control data output process will be described. In this control data output process, the image processing unit 12 uses the center coordinates icl in the horizontal direction in the entire image as shown in FIG. After comparing the coordinate value iv in the entire image of the front direction of the moving vehicle 3 that is measured in advance and calculating the deviation angle θ1 between the moving vehicle 3 and the direction of the far target portion 2 based on the equation (5) To the vehicle control unit 14.
θ1=tan-1((icl−iv)×PWH) …(5)
式(5)において、iclは、遠方目標部2の登録グループの中心点の画像上のi座標、ivは、移動車両3の正面方向のi座標、PWHは1画素当りの視野角である。なお、ivの値が予め計測して入力して車両制御部14を構成する記憶部に記憶されていること、または、移動車両3に対してカメラ部11が正確に正面を向いて設置されていることのいずれかが前提である。
θ1 = tan −1 ((icl−iv) × PWH) (5)
In equation (5), icl is the i coordinate on the image of the center point of the registered group of the far target unit 2, iv is the i coordinate in the front direction of the moving vehicle 3, and PWH is the viewing angle per pixel. It should be noted that the value of iv is measured and input in advance and stored in the storage unit that constitutes the vehicle control unit 14, or the camera unit 11 is installed correctly facing the moving vehicle 3. One of the premise is that
これにより、車両制御部14は、移動車両3と遠方目標部2の方向とのずれ角度θ1に基づいて、操向制御機構15を制御することにより、移動車両3を遠方目標部2の方向に向かって直進走行させる。 Thereby, the vehicle control unit 14 controls the steering control mechanism 15 based on the deviation angle θ1 between the moving vehicle 3 and the direction of the far target unit 2, thereby moving the moving vehicle 3 in the direction of the far target unit 2. Drive straight ahead.
ステップS13では、画像処理部12は、遠方目標部接近検出処理を行った後、ステップS14へ進む。以下、遠方目標部接近検出処理について説明する。本実施の形態では、画像処理部12は、遠方目標部検出処理に先立って、ステレオ画像処理等を行って距離画像を生成しても良い。この場合、検出された遠方目標部2を構成する発光部21の部分の距離画像データを抽出し、移動車両3から遠方目標部2までの距離を算出する。あるいは、遠方目標部2と判定された画像グループの大きさが閾値以上となったことにより、遠方目標部2までの距離が接近したと判定する方法も可能である。そして、移動車両3が予め設定した距離まで接近した場合には、画像処理部12は、その旨を移動車両3側に送信し、移動車両3において警報を鳴らすなどして運転者に注意喚起を行っても良い。なお、この遠方目標部接近検出処理は、任意に行う。 In step S13, the image processing unit 12 performs the far target portion approach detection process, and then proceeds to step S14. Hereinafter, the far target portion approach detection process will be described. In the present embodiment, the image processing unit 12 may generate a distance image by performing stereo image processing or the like prior to the far target portion detection processing. In this case, the distance image data of the portion of the light emitting unit 21 constituting the detected far target unit 2 is extracted, and the distance from the moving vehicle 3 to the far target unit 2 is calculated. Alternatively, it is possible to determine that the distance to the far target unit 2 has approached when the size of the image group determined as the far target unit 2 is equal to or greater than the threshold. Then, when the moving vehicle 3 approaches a preset distance, the image processing unit 12 transmits a message to that effect to the moving vehicle 3 and alerts the driver by sounding an alarm in the moving vehicle 3. You can go. In addition, this far target part approach detection process is arbitrarily performed.
ステップS14では、画像処理部12は、登録グループの重複評価・統合処理を行った後、ステップS15へ進む。以下、登録グループの重複評価・統合処理について説明する。上記したステップS10に示す時間的追跡処理において、検出対象の遠方目標部2の画像に基づいて生成された本来の画素グループに外乱などが加わってパラメータが変動した場合、当該画素グループが、これまで追跡され、記憶部13に登録されている登録グループとは異なる別の画素グループであると判断されてしまう場合がある。この結果、当該遠方目標部2が新しい画素グループであるとして記憶部13に登録され、遠方目標部2の登録グループが記憶部13に重複して存在する事態が発生する場合がある。 In step S14, the image processing unit 12 performs duplication evaluation / integration processing of registered groups, and then proceeds to step S15. The registration group duplication evaluation / integration process will be described below. In the temporal tracking process shown in step S10 described above, when a parameter is changed due to a disturbance or the like added to the original pixel group generated based on the image of the far target portion 2 to be detected, the pixel group has been changed so far. In some cases, it is determined that the pixel group is different from the registered group that is tracked and registered in the storage unit 13. As a result, the far target unit 2 may be registered in the storage unit 13 as being a new pixel group, and the registered group of the far target unit 2 may be duplicated in the storage unit 13 in some cases.
このような事態が発生した場合、次フレーム以降についての上記ステップS9に示す時間的追跡処理において、遠方目標部2の画像に基づいて生成されたある1個の画素グループを、複数の異なる登録グループがいずれも自己に対応する画素グループと判定することになり、正しい時間的追跡処理が行われない事態が発生するおそれがある。 When such a situation occurs, in the temporal tracking process shown in step S9 for the subsequent frames and thereafter, one pixel group generated based on the image of the far target unit 2 is converted into a plurality of different registration groups. Is determined to be a pixel group corresponding to itself, and there is a possibility that a situation in which correct temporal tracking processing is not performed may occur.
そこで、この登録グループの重複評価・統合処理では、画像処理部12は、既に記憶部13に登録されている複数の登録グループについて、各パラメータを相互に比較する。そして、類似性が高く、同一の対象物を追跡していると判断される複数の登録グループが存在する場合には、そのような複数の登録グループを1個の登録グループに統合する処理を定期的に実行する。 Therefore, in the overlapping evaluation / integration processing of the registered groups, the image processing unit 12 compares the parameters with each other for a plurality of registered groups that are already registered in the storage unit 13. If there are a plurality of registration groups that are judged to be highly similar and track the same object, a process for integrating such a plurality of registration groups into one registration group is regularly performed. Run it.
ステップS15では、画像処理部12は、現フレームのウィンドウ内画像更新処理を行った後、ステップS16へ進む。以下、現フレームのウィンドウ内画像更新処理について説明する。現フレームのウィンドウ内画像更新処理では、画像処理部12は、検出された遠方目標部2の登録グループの画像上の中心座標が、第1及び第2のウィンドウW0及びW02の中心になるように、第1及び第2のウィンドウW0及びW02の位置を再設定し、現フレームでの第1のウィンドウW0として記憶部13に再度記憶する。上記第1及び第2のウィンドウW0及びW02は、例えば、横56画素、縦40画素として設定する。 In step S15, the image processing unit 12 performs an in-window image update process for the current frame, and then proceeds to step S16. Hereinafter, the in-window image update process of the current frame will be described. In the in-window image update process of the current frame, the image processing unit 12 uses the detected center coordinates on the image of the registered group of the far target unit 2 as the centers of the first and second windows W 0 and W 02. As described above, the positions of the first and second windows W 0 and W 02 are reset and stored in the storage unit 13 again as the first window W 0 in the current frame. The first and second windows W 0 and W 02 are set, for example, as horizontal 56 pixels and vertical 40 pixels.
ステップS16では、画像処理部12は、ウィンドウ対応露光時間制御処理を行った後、現フレームに関する一連の処理を終了し、次フレームの撮像や画像処理を実行するために、図6に示すステップS1へ戻る。以下、ウィンドウ対応露光時間制御処理について説明する。このウィンドウ対応露光時間制御処理では、設定されているウィンドウWを対象とし、当該ウィンドウWの範囲内の輝度分布が遠方目標部2の検出に最適化されるように、カメラ部11の露光時間等の制御を行う。 In step S16, the image processing unit 12 performs a window-related exposure time control process, and then terminates a series of processes related to the current frame, and performs step S1 shown in FIG. 6 in order to perform imaging and image processing of the next frame. Return to. The window-corresponding exposure time control process will be described below. In this window-corresponding exposure time control process, the exposure time of the camera unit 11 is set so that the luminance distribution within the range of the window W is optimized for detection of the far target unit 2. Control.
すなわち、例えば、画像全体を対象としてカメラ部11の露光時間を制御した場合には、画像全体の中で遠方目標部2とその周辺が明るく、輝度が比較的高い場合は、遠方目標部2を含む領域の輝度が飽和してしまい、当該領域に設置されている遠方目標部2を検出することはできない。一方、設定されているウィンドウWを対象とし、当該ウィンドウWの範囲内の輝度分布が遠方目標部2の検出に最適化されるように、カメラ部11の露光時間の制御を行った場合には、画像全体に比して明るい領域に遠方目標部2が設定されていても、当該遠方目標部2を検出することができるのである。露光時間等の撮像の感度制御は、例えば、ウィンドウ内の全画素の輝度をヒストグラム化し、暗い部分と明るい部分の面積が等しくなるように制御を行う。 That is, for example, when the exposure time of the camera unit 11 is controlled for the entire image, the far target unit 2 and its surroundings are bright in the entire image and the brightness is relatively high. The brightness of the area to be included is saturated, and the far target unit 2 installed in the area cannot be detected. On the other hand, when the exposure time of the camera unit 11 is controlled so that the set window W is targeted and the luminance distribution within the range of the window W is optimized for detection of the far target unit 2 Even if the far target section 2 is set in a bright area compared to the entire image, the far target section 2 can be detected. For example, the sensitivity of imaging such as exposure time is controlled so that the luminance of all pixels in the window is histogrammed and the areas of the dark part and the bright part become equal.
このように、本発明の実施の形態によれば、比較的安価で発光効率が高く、輪郭形状及び発光部全体の大きさを任意に構成し易いLEDを多数配置した発光部21を備えた遠方目標部2を設置し、発光部21の点滅を撮像するカメラ部11の調節・設定に特徴を持たせ、さらに画像処理部12における画像処理に特徴的な差分処理や判断処理を持たせている。 As described above, according to the embodiment of the present invention, the distant portion provided with the light emitting portion 21 in which a large number of LEDs that are relatively inexpensive, have high light emission efficiency, and can easily configure the contour shape and the overall size of the light emitting portion are arranged. The target unit 2 is installed to give a characteristic to the adjustment / setting of the camera unit 11 that captures the flashing of the light emitting unit 21, and further has a difference process and a judgment process characteristic of the image processing in the image processing unit 12. .
したがって、本発明の実施の形態によれば、天候や時間による太陽光の方向などの屋外環境の変化へ対応することができるとともに、各種の反射光や木漏れ日などのノイズへも対応することができる。また、100m以上の距離範囲で安定的に目標を認識することができるとともに、装置の小型化・低コスト化などを図ることができる。 Therefore, according to the embodiment of the present invention, it is possible to cope with changes in the outdoor environment such as the direction of sunlight depending on the weather and time, and it is also possible to cope with various reflected light and noise such as sunbeams. . In addition, the target can be recognized stably in a distance range of 100 m or more, and the apparatus can be reduced in size and cost.
また、本発明の実施の形態によれば、カメラ部11と発光部21点滅の同期化を省略しているため、カメラ部11の撮像中に発光部21が点灯から消灯又は、消灯から点灯となり、撮像される発光部21の画像は、点灯と消灯の中間的な輝度になる状態が発生し得る。発光部21の点灯と消灯の時間が、カメラ部11の撮像周期と同じと仮定すると、カメラ部11で撮像される画像は、連続して点灯から消灯又は、消灯から点灯の状態となり、発光部21の画像は中間的な輝度の状態が続いて、輝度の時間的な変化が小さくなり、点滅する発光部21の検出が困難になる状況となる。 In addition, according to the embodiment of the present invention, since the synchronization of the blinking of the camera unit 11 and the light emitting unit 21 is omitted, the light emitting unit 21 is turned on or off or is turned on when the camera unit 11 is imaging. The image of the light emitting unit 21 to be imaged may have a state in which the luminance is intermediate between lighting and extinguishing. Assuming that the lighting and extinguishing time of the light emitting unit 21 is the same as the imaging cycle of the camera unit 11, the images captured by the camera unit 11 are continuously turned on and off or from off to on. The image 21 continues to be in an intermediate luminance state, and the temporal change in luminance becomes small, making it difficult to detect the flashing light emitting unit 21.
そこで、本発明の実施の形態によれば、発光部21は、カメラ部11の撮像周期と最大露光時間を合計した時間以上であって、かつ、撮像周期の2倍の時間以下である範囲の時間の点灯と、この範囲の時間の消灯とを繰り返すように設定している。これにより、あるフレームではカメラ部11の撮像中に発光部21が点灯から消灯又は、消灯から点灯となっても、次のフレームでは確実に露光時間中はずっと点灯又は、ずっと消灯の状態となり、発光部21の画像の輝度の変化を最大化し、発光部21の検出性能を向上させることができる。 Therefore, according to the embodiment of the present invention, the light emitting unit 21 has a range that is equal to or longer than the sum of the imaging cycle and the maximum exposure time of the camera unit 11 and equal to or less than twice the imaging cycle. It is set to repeat the lighting of the time and the turning off of the time in this range. As a result, even if the light emitting unit 21 is turned on or off during imaging by the camera unit 11 in a certain frame, or is turned on from off, the next frame is surely kept on during the exposure time or turned off all the time. The change in luminance of the image of the light emitting unit 21 can be maximized, and the detection performance of the light emitting unit 21 can be improved.
この点、発光部21の点灯時間又は消灯時間を長くすれば、容易にカメラ部11の画像はずっと点灯又はずっと消灯の状態となるが、本発明の実施の形態では、点灯から消灯又は、消灯から点灯の変化によって発光部21を検出するので、発光部21を検出できる機会が減少し、システム本来の機能を低下させることとなる。 In this regard, if the lighting time or the light-off time of the light emitting unit 21 is lengthened, the image of the camera unit 11 is easily turned on or turned off all the time. However, in the embodiment of the present invention, the light is turned off or turned off. Since the light-emitting part 21 is detected by the change in lighting, the opportunity to detect the light-emitting part 21 is reduced and the original function of the system is lowered.
本発明の実施の形態における、「カメラ部11の撮像周期と最大露光時間を合計した時間以上であって、かつ、撮像周期の2倍の時間以下である範囲の時間」は、確実に露光時間中はずっと点灯又は、ずっと消灯の状態が得られ、かつ、最少の時間であり、システム本来の機能を最大化する設定である。また、多くの場合にカメラ部11の最大露光時間は、撮像周期とほぼ一致するので、発光部21は撮像周期の2倍以下の点灯時間と、同様に撮像周期の2倍以下の消灯時間を繰り返す設定となる。 In the embodiment of the present invention, “a time in a range that is equal to or longer than the total of the imaging period and the maximum exposure time of the camera unit 11 and equal to or less than twice the imaging period” is surely the exposure time. This is a setting that maximizes the original function of the system, with a state in which the state is always lighted or lighted off and is the minimum time. In many cases, the maximum exposure time of the camera unit 11 is substantially the same as the imaging cycle. Therefore, the light emitting unit 21 has a lighting time that is not more than twice the imaging cycle and a turn-off time that is not more than twice the imaging cycle. It becomes setting to repeat.
また、本発明の実施の形態によれば、画像処理部12は、前フレームの画像全体の中において、遠方目標部2の位置検出を行う範囲として設定されたウィンドウWに相当する画像部分を、現フレームの画像全体の中から探索し、探索された画像部分を現フレームの画像における第1のウィンドウとして設定し、前々フレームの画像全体の中に設定されたウィンドウに相当する画像部分を、現フレームの画像全体の中から探索し、探索された画像部分を現フレームの画像における第2のウィンドウとして設定している。そして、第1及び第2のウィンドウに基づいて、第1及び第2の遠方目標部候補画素を抽出している。したがって、移動速度が速く、フレーム毎に撮像される画像が上下、左右に大きく変化するような状況においても、相当する画像が探索されるので、本システムを適用することができる。 Further, according to the embodiment of the present invention, the image processing unit 12 extracts an image portion corresponding to the window W set as a range for detecting the position of the far target unit 2 in the entire image of the previous frame. Search from the entire image of the current frame, set the searched image portion as the first window in the image of the current frame, and image portion corresponding to the window set in the entire image of the previous frame, The entire image of the current frame is searched for, and the searched image portion is set as the second window in the image of the current frame. Then, based on the first and second windows, first and second far target portion candidate pixels are extracted. Therefore, even in a situation where the moving speed is fast and the image captured for each frame changes greatly vertically and horizontally, the corresponding image is searched, so that the present system can be applied.
また、本発明の実施の形態によれば、カメラ部11で撮像した現フレームの画像と前フレームの画像において、対応する画素の輝度差の絶対値が第1の閾値以上であって、かつ、いずれかの画素の輝度が第2の閾値以上である場合に、その画素を遠方目標部2の候補画素として抽出している。したがって、点滅する発光部21に対し、画像上での輝度の特徴を的確に検出することができる。 According to the embodiment of the present invention, in the current frame image and the previous frame image captured by the camera unit 11, the absolute value of the luminance difference of the corresponding pixels is equal to or greater than the first threshold, and When the luminance of any pixel is equal to or higher than the second threshold, the pixel is extracted as a candidate pixel of the far target unit 2. Therefore, the luminance feature on the image can be accurately detected for the flashing light emitting unit 21.
また、本発明の実施の形態によれば、カメラ部11で撮像した現フレームの画像と前フレームの画像との差分処理に加え、現フレームの画像と前々フレームの画像との差分処理も行っている。上記したように、発光部21をカメラ部11の撮像周期及び最大露光時間の合計時間以上の点灯と、この合計時間以上の消灯とを繰り返すように設定した場合、現フレームでは発光部21の点灯又は消灯の画像が得られても、前フレームも同じく点灯又は、消灯の画像であったり、逆に、点灯から消灯又は、消灯から点灯の状態の画像となる場合がある。しかし、前々フレームは確実に現フレームとは逆の消灯又は点灯の画像となり、発光部21の検出が可能となる。 Further, according to the embodiment of the present invention, in addition to the difference process between the current frame image captured by the camera unit 11 and the previous frame image, the difference process between the current frame image and the previous frame image is also performed. ing. As described above, when the light emitting unit 21 is set to repeatedly turn on and off the total time of the imaging cycle and the maximum exposure time of the camera unit 11 and turn off the total time or more, the light emitting unit 21 is turned on in the current frame. Alternatively, even if a light-off image is obtained, the previous frame may also be a light-on or light-off image, or conversely a light-on or light-off or light-on-light image. However, the previous frame is surely turned off or turned on opposite to the current frame, and the light emitting unit 21 can be detected.
また、本発明の実施の形態によれば、画像部分の輝度の変化量を、過去の数秒間に渡って記憶し、この変化量を解析して点滅の周期性とその時間間隔を検出し、周期性が高く、かつ時間間隔が設定した遠方目標部2の点灯、消灯の時間間隔と一致する場合に、その画素グループが検出対象の遠方目標部2の可能性が高いと判断している。したがって、ノイズ的な要因によって誤抽出した画素グループを取り除くことができる。 In addition, according to the embodiment of the present invention, the amount of change in luminance of the image portion is stored over the past several seconds, the amount of change is analyzed to detect the periodicity of blinking and its time interval, When the periodicity is high and the time interval coincides with the set time interval of turning on / off the far target portion 2, it is determined that the pixel group is highly likely to be the far target portion 2 to be detected. Accordingly, it is possible to remove pixel groups that are erroneously extracted due to noise factors.
また、本発明の実施の形態によれば、抽出された画素グループのウィンドウにおける位置を過去の数秒間に渡って記憶し、この位置の上下・左右方向の座標値の時間的な変化量の標準偏差を算出し、標準偏差が小さい場合には、遠方目標部2の可能性が高いと判断している。したがって、この場合も、ノイズ的な要因によって誤抽出した画素グループを取り除くことができる。 In addition, according to the embodiment of the present invention, the position of the extracted pixel group in the window is stored for the past several seconds, and the temporal change amount of the coordinate value in the vertical and horizontal directions of this position is stored. When the deviation is calculated and the standard deviation is small, it is determined that the possibility of the far target unit 2 is high. Therefore, in this case as well, it is possible to remove pixel groups that are erroneously extracted due to noise factors.
また、本発明の実施の形態によれば、カメラ部11は、移動車両3の前方正面の方向と精確に平行に調整されているか又は、カメラ部11の画像において、移動車両3の前方正面の方向の位置が精確に検出されている必要がある。このように構成することにより、カメラ部11は、図12に示すように、移動車両3のエンジンフードなどに設置される車体マーカー5が写るようにカメラ部11を設置し、予め用意された、図4に示すような形状パターンを使って、パターンマッチングの手法により、カメラ部11の画像からその位置を検出し、移動車両3の前方正面の方向の位置を自動的に検出することができる。 In addition, according to the embodiment of the present invention, the camera unit 11 is adjusted precisely in parallel with the direction of the front front of the moving vehicle 3, or in the image of the camera unit 11, The position in the direction needs to be detected accurately. By configuring in this way, as shown in FIG. 12, the camera unit 11 is installed in advance so that the vehicle body marker 5 installed on the engine hood or the like of the moving vehicle 3 is shown. Using the shape pattern as shown in FIG. 4, the position in the image of the camera unit 11 can be detected by the pattern matching technique, and the position in the front direction of the moving vehicle 3 can be automatically detected.
また、本発明の実施の形態によれば、遠方目標部2を構成する発光部21は、輪郭の形状は、長方形状、楕円形状又は円形状のいずれかであって、輪郭の縦横比が2分の1から4分の1の間である。通常、発光部21の発光部分は面積が大きく、カメラ部11の方向に投射する光量が多いほど、遠方からの検出が有利となる。しかし、発光部21の位置は画像上の発光部21の中心座標によって算出するので、近距離では発光部21の画像が大きくなり、特に横幅が広くなると、検出される位置の精度が低下する傾向となる。そこで、本発明の実施の形態のように、発光部21の発光部分を、縦方向に長く、横方向に狭くすると、面積の拡大と精度の確保の両立が可能となる。一方、発光部21の発光部分が縦方向に長くなり過ぎると、画像上の発光部21の形状が、ノイズ的な要因で誤抽出される画素グループと類似してくるので、輪郭の縦横比は、2分の1から4分の1の間であることが最適である。 Further, according to the embodiment of the present invention, the light emitting unit 21 constituting the far target unit 2 has a contour shape of any one of a rectangular shape, an elliptical shape, and a circular shape, and the contour aspect ratio is 2. Between a quarter and a quarter. Usually, the light-emitting portion of the light-emitting unit 21 has a large area, and the more light that is projected in the direction of the camera unit 11, the more advantageous is detection from a distance. However, since the position of the light emitting unit 21 is calculated from the center coordinates of the light emitting unit 21 on the image, the image of the light emitting unit 21 becomes large at a short distance, and the accuracy of the detected position tends to decrease particularly when the horizontal width is widened. It becomes. Therefore, as in the embodiment of the present invention, when the light emitting portion of the light emitting portion 21 is long in the vertical direction and narrow in the horizontal direction, both the area expansion and the accuracy can be ensured. On the other hand, if the light emitting portion of the light emitting portion 21 becomes too long in the vertical direction, the shape of the light emitting portion 21 on the image is similar to a pixel group that is erroneously extracted due to noise factors, so the aspect ratio of the contour is It is optimal to be between 1/2 and 1/4.
また、本発明の実施の形態によれば、遠方目標部2は、黒色などの暗い色で塗装され、かつ、発光部21の発光部分の横幅以上の幅の余白部分を、発光部21の周囲に有する仕切板25を、発光部21の背後に有している。カメラ部11は、上記したように、撮像素子が格子状に配置された構造となっている。図13は遠方目標部2の一例であるが、検出限界付近の遠い距離では、遠方目標部2を撮像した画像は小さくなり、1個の撮像素子の大きさは図13に示す1個の格子ほどになり、撮像素子の出力は、1個の格子の中に存在する複数の物体の平均的な明るさとなり、図14のようなモザイク画像の状態になる。 In addition, according to the embodiment of the present invention, the far target portion 2 is painted in a dark color such as black, and a blank portion having a width greater than or equal to the width of the light emitting portion of the light emitting portion 21 is provided around the light emitting portion 21. A partition plate 25 is provided behind the light emitting unit 21. As described above, the camera unit 11 has a structure in which the imaging elements are arranged in a grid pattern. FIG. 13 shows an example of the far target unit 2, but at a far distance near the detection limit, an image obtained by capturing the far target unit 2 becomes small, and the size of one image sensor is one grid shown in FIG. 13. Thus, the output of the image sensor becomes the average brightness of a plurality of objects existing in one grid, and a mosaic image state as shown in FIG. 14 is obtained.
発光部21の周囲に背景板がなく、発光部21の背後に明るい物体があると、1個の撮像素子に発光部21と明るい背景の両方が同時に入る状態となり、発光部21が消灯してもその画素は明るい背景の光を受けて輝度が高いままの状態となり、輝度の変化が減少して発光部21の検出が困難となる。そこで、仕切板25を設けると、背後の物体による発光部21の画像への影響を低減することができ、特に、遠方の距離において検出性能が向上する。 If there is no background plate around the light emitting unit 21 and there is a bright object behind the light emitting unit 21, both the light emitting unit 21 and the bright background enter the same image sensor, and the light emitting unit 21 is turned off. However, the pixel receives a bright background light and remains in a high luminance state, and the change in luminance is reduced, making it difficult to detect the light emitting unit 21. Therefore, when the partition plate 25 is provided, the influence of the object behind on the image of the light emitting unit 21 can be reduced, and the detection performance is improved particularly at a distant distance.
発光部21の画像は、消灯時には暗い必要があるので、仕切板25は黒色などの光の反射が少ない色であることが望ましい。また、実際のカメラ部11では、レンズの収差などの影響で、ある物体からの光は、その位置の撮像素子のみでなく、周囲の撮像素子にも影響が拡散する。よって、仕切板25の大きさは、最低限、発光部21の発光部分の横幅以上の幅を、発光部21の周囲に有することが望ましい。さらに、筐体24に蓋を取り付け、蓋の裏も黒く塗装し、発光部21使用時には蓋を展開して、仕切板25の拡張として利用しても良い。 Since the image of the light emitting unit 21 needs to be dark when the light is turned off, it is desirable that the partition plate 25 be a color with little light reflection such as black. In the actual camera unit 11, the influence of light from a certain object diffuses not only to the image sensor at that position but also to the surrounding image sensors due to the influence of lens aberration and the like. Therefore, it is desirable that the partition plate 25 has a width around the light emitting unit 21 that is at least as large as the lateral width of the light emitting portion of the light emitting unit 21. Further, a lid may be attached to the casing 24, the back of the lid may be painted black, and the lid may be unfolded when the light emitting unit 21 is used, and used as an extension of the partition plate 25.
また、本発明の実施の形態によれば、遠方目標部2は、その発光部21を直方体の容器状の筐体24の底部又は底部の付近に設けた仕切板25に設置する構造である。遠方目標部2は、図5に示すように、発光部21の発光体をほぼ垂直に立てて使用する場合が多いと考えられる。直方体の筐体24を用いることにより、遠方目標部2は、図5に示すように、平坦な場所に置くだけで安定な設置が可能となり、取扱が簡便となる。また、筐体24はそのまま収納用の容器を兼ねることもできる。 In addition, according to the embodiment of the present invention, the far target portion 2 has a structure in which the light emitting portion 21 is installed on the partition plate 25 provided near or near the bottom of the rectangular container-like casing 24. As shown in FIG. 5, it is considered that the far target unit 2 often uses the light emitter of the light emitting unit 21 in a substantially vertical position. By using the rectangular parallelepiped housing 24, as shown in FIG. 5, the far target section 2 can be stably installed only by placing it on a flat place, and the handling becomes simple. The casing 24 can also serve as a container for storage as it is.
また、発光部21に直射日光が当たると、太陽光の反射で発光部21の部分が輝き、発光部21が消灯状態でも画像が明るいままとなる。直方体状の筐体24の奥まった所に発光部21を設置することにより、上方と左右にも日除けが付く構造となる。 In addition, when the direct sunlight is applied to the light emitting unit 21, the portion of the light emitting unit 21 shines due to the reflection of sunlight, and the image remains bright even when the light emitting unit 21 is turned off. By installing the light emitting unit 21 in the recessed portion of the rectangular parallelepiped housing 24, the sunshade is also attached to the upper and left and right sides.
また、本発明の実施の形態によれば、カメラ部11の露光時間、絞り、画像信号のアンプゲインなどの感度調節は、カメラ部11の画像中に部分的に設定されているウィンドウW内の画像の輝度分布に基づいて設定されている。カメラ部11による撮像は、背景となる部分の明るさに対し、発光部21の点滅による明暗変化が最大となるように、カメラ部11の感度調節を行うことが重要である。一般のカメラのように画像全体で感度調節すると、遠方にあって小さい発光部21の画像では、その部分が最適化されない場合がある。そこで、発光部21の検出処理を行う範囲であるウィンドウW内の画像に対して、感度調節を行うことにより、発光部21の検出性能が向上する。 In addition, according to the embodiment of the present invention, sensitivity adjustments such as the exposure time of the camera unit 11, the aperture, and the amplifier gain of the image signal are performed in the window W partially set in the image of the camera unit 11. It is set based on the luminance distribution of the image. In imaging by the camera unit 11, it is important to adjust the sensitivity of the camera unit 11 so that the brightness change due to the flashing of the light emitting unit 21 is maximized with respect to the brightness of the background portion. When sensitivity adjustment is performed on the entire image as in a general camera, the portion of the image of the light emitting unit 21 that is far away and small may not be optimized. Therefore, the detection performance of the light emitting unit 21 is improved by performing sensitivity adjustment on the image in the window W that is the range in which the detection processing of the light emitting unit 21 is performed.
ここで、実験結果の一例を示す。移動車両3としてトラクタを用いるとともに、このトラクタに車両搭載部1を搭載し、日中の屋外にて遠方に設置された点滅する遠方目標部2を検出し、移動車両3を遠方目標部2に向かって走行制御した。図15に示す例では、トラクタの前部にカメラ部11を搭載するとともに、畝立機を装着し、遠方目標部2に向う走行制御を行って形成した畝の状態を図16に、また、この時の遠方目標部2の位置及び形成された畝の位置の計測結果を図17に示す。 Here, an example of the experimental result is shown. A tractor is used as the moving vehicle 3, and the vehicle mounting unit 1 is mounted on the tractor to detect a flashing far target unit 2 installed far away outdoors in the daytime, and the moving vehicle 3 becomes the far target unit 2. Traveling control was performed. In the example shown in FIG. 15, the camera unit 11 is mounted on the front part of the tractor, and the state of the kite formed by performing the traveling control toward the far target unit 2 by installing a vertical machine is shown in FIG. FIG. 17 shows the measurement results of the position of the far target portion 2 and the position of the formed eyelid at this time.
ここで、畝の位置は実験者が目測で畝のほぼ中央に反射プリズムを合わせながら持って歩き、その時の反射プリズムの位置を自動追尾型レーザー式測位装置で計測したものである。遠方目標部2の位置も反射プリズムと自動追尾型レーザー式測位装置による同様の計測である。 Here, the position of the eyelid was measured by the experimenter, holding the reflecting prism in the approximate center of the eyelid while walking, and measuring the position of the reflecting prism at that time with an automatic tracking laser positioning device. The position of the far target unit 2 is also measured by the reflecting prism and the automatic tracking laser type positioning device.
計測の精度は、自動追尾型レーザー式測位装置の単体としては±1cm程度であるが、畝の位置については、目測によるばらつきや歩行に伴う反射プリズムの揺れなどの要因が加わる。図17に示す畝の位置の横方向の細かい変動は、主に歩行に伴う揺れによるもので、実際の畝は、図16のように滑らかである。 The accuracy of the measurement is about ± 1 cm as a single unit of the automatic tracking laser positioning device, but the position of the eyelid is subject to factors such as variations due to visual measurements and the reflection prism swinging due to walking. The fine variation in the lateral direction of the position of the heel shown in FIG. 17 is mainly due to shaking accompanying walking, and the actual heel is smooth as shown in FIG.
図17において、遠方目標部2に対して畝はほぼ±30mm以内の偏位で形成されており、良好な遠方目標部2に向かう直進誘導が行われたことが分かる。この±30mmの偏位には、畝位置計測時の実験者の歩行に伴う反射プリズムの揺れなどを含むものであり、直進誘導の精度は実用的に十分なものと考えられる。 In FIG. 17, the heel is formed with a deviation within about ± 30 mm with respect to the far target portion 2, and it can be seen that the straight guidance toward the good far target portion 2 was performed. This deviation of ± 30 mm includes a swing of the reflecting prism accompanying the walk of the experimenter at the time of measuring the heel position, and the accuracy of the straight guidance is considered to be practically sufficient.
トラクタは、装着する作業機や圃場の状態などによって直進性が変化するので、直線的な作業を行うには、運転者は熟練と頻繁な操舵修正が必要であるが、本システムにより未熟練者でも高い精度の作業を可能とし、同時に自動化による運転者の負担軽減を実現することができる。また、目標とする位置に遠方目標部2を載置するという、簡便で直観的に分り易い操作方法であるといえる。 The tractor changes straight ahead depending on the work implement to be installed and the state of the field, so the driver needs skilled and frequent steering correction to perform linear work. However, it is possible to work with high accuracy and at the same time reduce the burden on the driver by automation. Moreover, it can be said that it is a simple and intuitive operation method of placing the far target unit 2 at a target position.
遠方目標部2を検出するためには、遠方目標部2の背景となる部分の明るさに対して、遠方目標部2の明るさが十分にある必要がある。背景の明るさはその種類や日照条件などで変化する一方、遠方目標部2の明るさは距離の二乗に反比例して暗くなる。このため、遠方目標部2を検出可能な距離を一概に特定することはできない。本システムは、曇天の目中にて400m以上遠方の遠方目標部2を検出して誘導走行することにも成功している。 In order to detect the far target unit 2, it is necessary that the brightness of the far target unit 2 be sufficiently higher than the brightness of the portion serving as the background of the far target unit 2. While the brightness of the background changes depending on the type and sunshine conditions, the brightness of the far target portion 2 becomes dark in inverse proportion to the square of the distance. For this reason, the distance which can detect the far target part 2 cannot be specified unconditionally. This system has also succeeded in guiding and running by detecting the far target part 2 that is 400 m or more in the cloudy eyes.
以上、本発明の実施の形態について図面を参照して詳述してきたが、具体的な構成はこの実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれる。
例えば、上述の実施の形態では、本発明を農用トラクタに適用する例を示したが、これに限定されず、農用トラクタ以外の各種農用車両による作業に適用可能であり、特に、最初の作業行程を高精度に直線的に行う場合、低速で長時間にわたる直進運転、直線的に畦塗りを行いたい場合などに有効である。また、本発明は、農業分野だけでなく、土木や建設分野での作業車両の直進誘導にも利用可能である。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and design changes and the like within a scope not departing from the gist of the present invention are possible. Even if it exists, it is included in this invention.
For example, in the above-described embodiment, an example in which the present invention is applied to an agricultural tractor has been described. However, the present invention is not limited to this, and can be applied to work by various agricultural vehicles other than the agricultural tractor. This is effective when performing linear movement with high accuracy, when driving straight ahead at low speed for a long time, or when it is desired to perform linear glazing. Further, the present invention can be used not only in the agricultural field but also for direct guidance of work vehicles in the civil engineering and construction fields.
また、上述の実施の形態では、遠方目標部2を移動車両3が直進走行すべき走路前方の延長線上に設置するとともに、この遠方目標部2を撮像するために、カメラ部11を移動車両3の室内であって、移動車両3の前方正面に向けて車両中心線MC上に搭載する例を示したが、これに限定されない。例えば、遠方目標部2を移動車両3が直進走行すべき走路後方の延長線上に設置するとともに、この遠方目標部2を撮像するために、カメラ部11を移動車両3の室内又はルーフ上等であって、移動車両3の後方正面に向けて車両中心線MC上に搭載しても良い。 Further, in the above-described embodiment, the far target unit 2 is installed on the extension line in front of the running path on which the moving vehicle 3 should travel straight, and the camera unit 11 is moved to capture the far target unit 2. Although the example which mounts on the vehicle centerline MC toward the front front of the moving vehicle 3 was shown, it is not limited to this. For example, the distant target unit 2 is installed on an extension line behind the runway on which the moving vehicle 3 should travel straight, and the camera unit 11 is placed indoors or on the roof of the moving vehicle 3 in order to capture the distant target unit 2. Therefore, it may be mounted on the vehicle center line MC toward the rear front of the moving vehicle 3.
1…移動車両搭載部、2…遠方目標部、3…移動車両、4…圃場、4a…長辺、4b…短辺、5…車体マーカー、11…カメラ部、12…画像処理部、13…記憶部、14…車両制御部、15…操向制御機構、16…表示・操作部、21…発光部、22…制御部、23…電源、24…筐体、25…仕切板、SA…探索範囲、W0…現フレームの画像における第1のウィンドウ、W02…現フレームの画像における第2のウィンドウ、W-1…前フレームの画像におけるウィンドウ、W-2…前々フレームの画像におけるウィンドウ DESCRIPTION OF SYMBOLS 1 ... Moving vehicle mounting part, 2 ... Distant target part, 3 ... Moving vehicle, 4 ... Agricultural field, 4a ... Long side, 4b ... Short side, 5 ... Body marker, 11 ... Camera part, 12 ... Image processing part, 13 ... Storage unit, 14 ... Vehicle control unit, 15 ... Steering control mechanism, 16 ... Display / operation unit, 21 ... Light emitting unit, 22 ... Control unit, 23 ... Power source, 24 ... Housing, 25 ... Partition plate, SA ... Search Range, W 0 ... first window in current frame image, W 02 ... second window in current frame image, W -1 ... window in previous frame image, W -2 ... window in previous frame image
Claims (8)
前記移動車両搭載部は、前記遠方目標部を撮像するカメラ部と、前記カメラ部から得られる画像を処理して前記直進走行のための走行情報を出力する画像処理部と、前記走行情報に基づいて前記移動車両を制御する操向制御部とを有し、
前記遠方目標部は、前記カメラ部の撮像周期と最大露光時間を合計した時間以上であって、かつ、前記撮像周期の2倍の時間以下である範囲の時間の点灯と、前記範囲の時間の消灯とを繰り返し、
前記画像処理部は、撮像された現フレームの前記画像と、1つ前の前記撮像周期に撮像された前フレームの前記画像において、対応する画素の輝度差の絶対値が第1の閾値以上であって、かつ、いずれか一方の画素の輝度が第2の閾値以上である場合に、当該画素を第1の遠方目標部候補画素として抽出するとともに、前記現フレームの前記画像と、2つ前の前記撮像周期に撮像された前々フレームの前記画像において、対応する画素の輝度差の絶対値が前記第1の閾値以上であって、かつ、いずれか一方の画素の輝度が前記第2の閾値以上である場合に、当該画素を第2の遠方目標部候補画素として抽出し、前記第1及び第2の遠方目標部候補画素を統合し、統合した遠方目標部候補画素に対して前記遠方目標部の位置検出を行い、検出結果に基づいて前記走行情報を生成する
ことを特徴とする移動車両の直進誘導システム。 A moving vehicle mounting portion mounted on the moving vehicle, and a far target portion installed on an extension line in front of the road on which the moving vehicle should travel straight ahead,
The moving vehicle mounting unit is based on a camera unit that images the far target unit, an image processing unit that processes an image obtained from the camera unit and outputs traveling information for the straight traveling, and the traveling information And a steering control unit for controlling the moving vehicle,
The far target unit is turned on for a time in a range that is equal to or longer than the sum of the imaging cycle and the maximum exposure time of the camera unit, and less than or equal to twice the imaging cycle. Repeatedly turning off
In the image processing unit, the absolute value of the luminance difference between corresponding pixels in the image of the captured current frame and the image of the previous frame captured in the previous imaging cycle is equal to or greater than a first threshold. And when the luminance of any one of the pixels is equal to or higher than the second threshold, the pixel is extracted as the first far target portion candidate pixel, and the image of the current frame and the previous two pixels are extracted. In the image of the previous frame imaged in the imaging cycle, the absolute value of the luminance difference of the corresponding pixel is not less than the first threshold value, and the luminance of any one of the pixels is the second If the threshold is equal to or greater than the threshold, the pixel is extracted as a second far target portion candidate pixel, the first and second far target portion candidate pixels are integrated, and the far end relative to the integrated far target portion candidate pixel Detects the position of the target part and Straight guidance system of the mobile vehicle and generates the travel information based on.
ことを特徴とする請求項1に記載の移動車両の直進誘導システム。 The image processing unit searches the entire image of the previous frame for an image portion corresponding to a window set as a range for detecting the position of the far target unit from the entire image of the current frame. The searched image part is set as a first window in the image of the current frame, and an image part corresponding to the window set in the whole image of the previous frame is set as the window of the current frame. Searching from within the entire image, setting the searched image portion as a second window in the image of the current frame, and based on the first and second windows, the first and second remote targets The part candidate pixel is extracted. The straight traveling guidance system for a moving vehicle according to claim 1, wherein:
ことを特徴とする請求項1又は2に記載の移動車両の直進誘導システム。 The image processing unit, for each pixel constituting a plurality of pixel groups extracted by grouping the integrated far target portion candidate pixels, brightness in the image of the current frame, and the pixel of the previous frame The blinking of the pixels based on the past few seconds of the difference between the brightness in the image and the past in the difference between the brightness in the image of the current frame and the brightness in the image of the previous frame. 3. The straight traveling guidance system for a moving vehicle according to claim 1, wherein the time interval between periodicity and blinking is detected, and the far target portion candidate pixel is determined as the far target portion based on the detection result. .
ことを特徴とする請求項2又は3に記載の移動車両の直進誘導システム。 The image processing unit calculates a standard deviation in temporal change amounts of vertical and horizontal coordinate values for the past several seconds of position values on the window for each of the plurality of pixel groups, and the standard The straight traveling guidance system for a moving vehicle according to claim 2 or 3, wherein when the deviation is smaller than a preset threshold value, the pixel group is determined as the far target portion.
ことを特徴とする請求項1乃至4のいずれかに記載の移動車両の直進誘導システム。 The far target portion has a shape of a contour of the light emitting portion that is any one of a rectangular shape, an elliptical shape, and a circular shape, and an aspect ratio of the contour is between a half and a quarter. The straight traveling guidance system for a moving vehicle according to any one of claims 1 to 4.
ことを特徴とする請求項2乃至5のいずれかに記載の移動車両の直進誘導システム。 The exposure time of the camera unit, the aperture, and the sensitivity adjustment of the amplifier gain of the image signal are set based on the luminance distribution of the image in the window that is partially set in the image of the camera unit. A straight traveling guidance system for a moving vehicle according to any one of claims 2 to 5.
前記画像処理部は、前記画像の中から前記車体マーカーの位置を検出し、前記車体マーカーの画像上の位置に基づいて、前記移動車両に対する前記カメラ部の方向を検出する
ことを特徴とする請求項1乃至6のいずれかに記載の移動車両の直進誘導システム。 A vehicle body marker that can be imaged together with the far target unit is attached to the moving vehicle,
The image processing unit detects a position of the vehicle body marker from the image, and detects a direction of the camera unit with respect to the moving vehicle based on a position of the vehicle body marker on the image. Item 7. A straight traveling guidance system for a moving vehicle according to any one of Items 1 to 6.
前記カメラ部は、前記遠方目標部を撮像するように前記移動車両に搭載されている
ことを特徴とする請求項1乃至7のいずれかに記載の移動車両の直進誘導システム。 The far target portion is installed on an extension line behind the runway on which the moving vehicle should travel straight,
The straight traveling guidance system for a moving vehicle according to any one of claims 1 to 7, wherein the camera unit is mounted on the moving vehicle so as to image the far target portion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007334398A JP4978799B2 (en) | 2007-12-26 | 2007-12-26 | Straight-forward guidance system for moving vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007334398A JP4978799B2 (en) | 2007-12-26 | 2007-12-26 | Straight-forward guidance system for moving vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009153432A JP2009153432A (en) | 2009-07-16 |
JP4978799B2 true JP4978799B2 (en) | 2012-07-18 |
Family
ID=40958134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007334398A Active JP4978799B2 (en) | 2007-12-26 | 2007-12-26 | Straight-forward guidance system for moving vehicles |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4978799B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5755576B2 (en) * | 2012-01-25 | 2015-07-29 | 住友重機械工業株式会社 | Driving assistance device |
JP6716910B2 (en) * | 2015-12-25 | 2020-07-01 | 井関農機株式会社 | Autonomous traveling system for work vehicles |
JP6709559B2 (en) * | 2016-05-27 | 2020-06-17 | 国立研究開発法人農業・食品産業技術総合研究機構 | Traveling control device for moving vehicle |
JP2019170309A (en) * | 2018-03-29 | 2019-10-10 | ヤンマー株式会社 | Work vehicle |
JP7078259B2 (en) * | 2018-09-07 | 2022-05-31 | 松山株式会社 | Work support system for agricultural work machines |
DE102018220410A1 (en) | 2018-11-28 | 2020-05-28 | Zf Friedrichshafen Ag | Automatic steering of an agricultural machine on an agricultural area |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2866723B2 (en) * | 1990-08-24 | 1999-03-08 | ヤンマー農機株式会社 | Left and right horizontal attitude control device of working machine in agricultural work machine |
JPH07170809A (en) * | 1993-12-17 | 1995-07-11 | Kubota Corp | Device for detecting position of illuminant |
JPH08179829A (en) * | 1994-12-22 | 1996-07-12 | Kubota Corp | Guide controller for mobile object |
JP2006018675A (en) * | 2004-07-02 | 2006-01-19 | Kubota Corp | Automation structure for mobile work machine |
-
2007
- 2007-12-26 JP JP2007334398A patent/JP4978799B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009153432A (en) | 2009-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4978799B2 (en) | Straight-forward guidance system for moving vehicles | |
US4482960A (en) | Robot tractors | |
US9551791B2 (en) | Surround sensing system | |
RU2370591C2 (en) | Device for weed mapping | |
CN105937904B (en) | Surveying device and the method for surveying device, machine readable media | |
JP5506745B2 (en) | Image acquisition unit, method and associated control unit {IMAGEACQUISITIONUNIT, ACQUISITIONMETHODANDASSOCIATEDCONTROLLUNT} | |
CN106461762B (en) | Object detection system and method | |
CN112673799B (en) | Self-walking mowing system and outdoor walking equipment | |
US10172289B2 (en) | System and method for the automatic adjustment of the height of an agricultural implement using 3D reconstruction | |
CN101916112B (en) | Positioning and controlling system and method of intelligent vehicle model in indoor scene | |
CN103439265A (en) | Real-time monitoring method for growth characters of tea trees in intensive cultivation | |
US20160063334A1 (en) | In-vehicle imaging device | |
US20230364797A1 (en) | Mobile robot determining future exposure time of optical sensor | |
CN106054946A (en) | Spot following device and method | |
CN106908062B (en) | A kind of self-propelled chlorophyll fluorescence Image Acquisition robot and its acquisition method | |
CN108669046A (en) | Merge the plant protection unmanned vehicle and control method of vision guided navigation and Big Dipper positioning | |
US20240206454A1 (en) | System mounted in a vehicle for agricultural application and method of operation of the system | |
JP2012023997A (en) | Automatic travel controller for working vehicle | |
CN109901169A (en) | A kind of roadside parking space management system to be linked based on radar and rifle ball machine | |
WO2021073587A1 (en) | Autonomously moving lawn mowing system, autonomously moving lawn mower and outdoor autonomously moving device | |
CN205910602U (en) | Device of following spot | |
CN114419407A (en) | Inline weed automatic identification method and device for seedling stage of transplanted crops | |
CN220342877U (en) | Mower | |
Rees et al. | Development and evaluation of a prototype precision spot spray system using image analysis to target Guinea Grass in sugarcane | |
CN207992810U (en) | A kind of field automatic travelling device for detecting plant growth condition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120404 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150427 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4978799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |