JP2012198207A - Image processing device and method, and mobile-body collision prevention apparatus - Google Patents

Image processing device and method, and mobile-body collision prevention apparatus Download PDF

Info

Publication number
JP2012198207A
JP2012198207A JP2012060124A JP2012060124A JP2012198207A JP 2012198207 A JP2012198207 A JP 2012198207A JP 2012060124 A JP2012060124 A JP 2012060124A JP 2012060124 A JP2012060124 A JP 2012060124A JP 2012198207 A JP2012198207 A JP 2012198207A
Authority
JP
Japan
Prior art keywords
imaging
image
image processing
focusing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012060124A
Other languages
Japanese (ja)
Other versions
JP5536125B2 (en
Inventor
Yasuro Fukawa
泰朗 府川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Enii Kk
Original Assignee
Enii Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Enii Kk filed Critical Enii Kk
Publication of JP2012198207A publication Critical patent/JP2012198207A/en
Application granted granted Critical
Publication of JP5536125B2 publication Critical patent/JP5536125B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Abstract

PROBLEM TO BE SOLVED: To provide: an image processing device and method for accurately recognizing an object within a short range; and a mobile-body collision prevention apparatus.SOLUTION: An image processing device includes an imaging part and an image processing part for processing an image captured by the imaging part. The imaging part includes an imaging lens, a focusing mechanism for driving the imaging lens to change a focus distance, and an imaging element. The focusing mechanism performs focus sweep to drive the imaging lens and sequentially change the focusing distance so as to clearly image the objects located in different positions in an optical axis direction of the imaging lens on the imaging device. The imaging part captures respective images in accordance with the different focusing distances in the focus sweep. The image processing part recognizes an object clearly imaged in each image from the captured plural images to generate an object distribution image that indicates the position of the recognized object in accordance with the focus distances when the respective images have been captured.

Description

本発明は、画像処理装置、例えば画像処理による移動体衝突防止装置に関するものである。本発明はまた、そのような画像処理方法にも関する。   The present invention relates to an image processing apparatus, for example, a moving object collision preventing apparatus using image processing. The present invention also relates to such an image processing method.

特開2000-304856号公報(特許文献1)および特開平11-120499号公報(特許文献2)には、飛行機または船舶に搭載される全地球測位システム(GPS)またはレーダを利用した衝突防止装置が記載されている。特許第3260645号公報(特許文献3)には、車両等の地上輸送装置に搭載されるGPSを利用したカーナビゲーション装置が記載されている。また、特開2001-337724号公報(特許文献4)には、GPSを利用して無人車両が特定の領域に進入することを防止する技術が記載されている。さらに、特開平5-143158号公報(特許文献5)には、ワイヤレス監視デバイスにより無人車両同士の衝突を防止する技術が記載されている。   Japanese Patent Laid-Open No. 2000-304856 (Patent Document 1) and Japanese Patent Laid-Open No. 11-120499 (Patent Document 2) disclose a global positioning system (GPS) mounted on an airplane or ship or a collision prevention device using a radar. Is described. Japanese Patent No. 3260645 (Patent Document 3) describes a car navigation device using GPS mounted on a ground transportation device such as a vehicle. Japanese Unexamined Patent Publication No. 2001-337724 (Patent Document 4) describes a technique for preventing an unmanned vehicle from entering a specific area using GPS. Furthermore, Japanese Patent Laid-Open No. 5-143158 (Patent Document 5) describes a technique for preventing a collision between unmanned vehicles using a wireless monitoring device.

近年、GPS受信機、速度検出部および方向検出部を有する移動体衝突防止装置において、上述の各構成要素により獲得されたGPS位置情報、速度情報および方向情報を他の移動体へ送信することにより、これらの情報を受信した移動体は衝突が発生するか否かを判断できる。   In recent years, in a mobile collision prevention apparatus having a GPS receiver, a speed detection unit, and a direction detection unit, by transmitting GPS position information, speed information, and direction information acquired by the above-described components to other mobile units The mobile body that has received these pieces of information can determine whether or not a collision occurs.

しかし、このようなGPSを利用した従来技術では、GPS自体の測定精度およびGPS受信設備の精度により、移動体同士の相互間距離の計算における誤差は通常数メートル(m)ないし十数メートルほどに及ぶことがある。したがって、衝突事故が起こり得る近距離の範囲内で、移動体の位置を誤って検出する恐れがある。   However, in the conventional technology using such GPS, the error in the calculation of the distance between the moving bodies is usually several meters (m) to several tens of meters due to the measurement accuracy of the GPS itself and the accuracy of the GPS receiving equipment. There may be. Therefore, there is a possibility that the position of the moving body is erroneously detected within a short range where a collision accident may occur.

特開2000-304856号公報JP 2000-304856 A 特開平11-120499号公報Japanese Patent Laid-Open No. 11-120499 特許第3260645号公報Japanese Patent No. 3260645 特開2001-337724号公報JP 2001-337724 特開平5-143158号公報Japanese Unexamined Patent Publication No. 5-143158

本発明は、このような従来技術における問題点を鑑みて、近距離範囲で物体を正確に認識できる画像処理装置および方法、ならびに移動体衝突防止装置を提供することを目的としている。   An object of the present invention is to provide an image processing apparatus and method capable of accurately recognizing an object in a short distance range, and a moving object collision preventing apparatus in view of such problems in the conventional technology.

本発明による画像処理装置は、撮像手段と、該撮像手段が撮像した画像を処理する画像処理手段とを備え、前記撮像手段は、撮像レンズと、該撮像レンズを駆動しフォーカシング距離を変更する合焦機構と、撮像素子とを有し、該合焦機構は、前記撮像レンズを駆動して該撮像レンズの光軸方向における異なる位置の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、前記撮像手段は、前記フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれ画像を撮像し、前記画像処理手段は、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成することを特徴とする。   An image processing apparatus according to the present invention includes an imaging unit and an image processing unit that processes an image captured by the imaging unit. The imaging unit drives the imaging lens and the focusing lens to change a focusing distance. A focusing mechanism and an imaging device, and the focusing mechanism sequentially focuses so as to drive the imaging lens to clearly image an object at a different position in the optical axis direction of the imaging lens on the imaging device. A focus sweep for changing a distance is performed, and the imaging unit captures images according to a plurality of different focusing distances in the focus sweep, and the image processing unit is configured to detect the plurality of images from the plurality of captured images. Recognize the clearly imaged object in each of the images, and correspond to the focusing distance at the time of capturing each of the images And generating an object distribution picture to see the position of the serial recognized objects.

本発明の画像処理装置によれば、撮像範囲内における物体の分布を示す画像が生成される。この物体分布画像は、生産現場における設備の位置識別および監視制御、スポーツ試合の生中継における視角の切替え、インタラクティブな娯楽システム、および後記の本願発明に係る移動体衝突防止装置に適用することができる。   According to the image processing apparatus of the present invention, an image showing the distribution of objects within the imaging range is generated. This object distribution image can be applied to equipment location identification and monitoring control at a production site, viewing angle switching in live sports games, an interactive entertainment system, and a mobile collision prevention apparatus according to the present invention described later. .

また、本発明による画像処理装置において、前記フォーカススイープにおいて、フォーカシング距離は1m以下のステップ幅で変化させることが望ましい。これにより、物体分布画像の精密度を向上させることができる。   In the image processing apparatus according to the present invention, it is desirable that the focusing distance is changed with a step width of 1 m or less in the focus sweep. Thereby, the precision of an object distribution image can be improved.

また、本発明による画像処理装置において、前記撮像手段は500画像/秒以上の頻度で撮像することが望ましい。これにより、よりリアルタイムに物体分布画像を生成することができる。   In the image processing apparatus according to the present invention, it is preferable that the imaging unit captures images at a frequency of 500 images / second or more. Thereby, an object distribution image can be generated in more real time.

また、本発明による画像処理装置において、前記撮像手段は前記フォーカススイープを繰り返して複数回行い、前記画像処理手段は、該複数回のフォーカススイープに対応して前記物体分布画像を複数枚生成することが望ましい。フォーカススイープを繰返し行うことにより、物体分布画像を随時に更新し、物体分布画像の実時間性をさらに向上ることができる。   In the image processing apparatus according to the present invention, the imaging unit repeatedly performs the focus sweep a plurality of times, and the image processing unit generates a plurality of the object distribution images corresponding to the plurality of focus sweeps. Is desirable. By repeatedly performing the focus sweep, the object distribution image can be updated as needed, and the real-time property of the object distribution image can be further improved.

また、本発明による画像処理装置において、前記撮像手段は前記フォーカススイープを毎秒5回以上行うことが望ましい。これにより、物体分布画像を更新する実時間性をさらに向上させることができる。   In the image processing apparatus according to the present invention, it is preferable that the imaging unit performs the focus sweep five times or more per second. Thereby, the real time property which updates an object distribution image can further be improved.

また、本発明による画像処理装置において、前記撮像手段は電荷結合デバイス(CCD)センサまたは相補型金属酸化膜半導体(CMOS)を利用することができ、また、赤外線撮像素子を利用してもよい。撮像素子は、使用する環境に適した種類を選択することができる。   In the image processing apparatus according to the present invention, the image pickup means may use a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS), or may use an infrared image pickup device. As the imaging device, a type suitable for an environment to be used can be selected.

また、本発明による画像処理装置において、前記撮像レンズはズームレンズを含み、前記撮像手段は、該ズームレンズを駆動しその焦点距離を変更するズーミング機構を備え、該ズーミング機構は、前記フォーカシング距離が所定値より長くなるとき、前記ズームレンズを駆動してその焦点距離を長くし、前記フォーカシング距離が所定値より短くなるとき、前記ズームレンズを駆動してその焦点距離を短くすることが望ましい。   In the image processing apparatus according to the present invention, the imaging lens includes a zoom lens, and the imaging unit includes a zooming mechanism that drives the zoom lens and changes a focal distance thereof, and the zooming mechanism has the focusing distance. When the zoom lens is longer than a predetermined value, it is desirable to drive the zoom lens to increase its focal length, and when the focusing distance is shorter than a predetermined value, it is preferable to drive the zoom lens to shorten the focal length.

また、本発明による画像処理方法は、撮像レンズ、該撮像レンズを駆動しフォーカシング距離を変更する合焦機構、および撮像素子を有する撮像手段と、該撮像手段が撮像した画像を処理する画像処理手段とを備える画像処理装置において、前記撮像手段において、前記合焦機構は、前記撮像レンズを駆動して該撮像レンズの光軸方向における異なる位置の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、該フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれの画像を撮像し、前記画像処理手段において、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に応じて前記認識された物体の位置を表示する物体分布画像を生成することを特徴とする。   An image processing method according to the present invention includes an imaging lens, a focusing mechanism that drives the imaging lens to change a focusing distance, an imaging unit having an imaging element, and an image processing unit that processes an image captured by the imaging unit. In the image processing apparatus, in the imaging unit, the focusing mechanism drives the imaging lens so that objects at different positions in the optical axis direction of the imaging lens are clearly imaged on the imaging element. A focus sweep that sequentially changes the focusing distance is performed, and each image is captured according to a plurality of different focusing distances in the focus sweep, and the plurality of captured images are picked up from the captured plurality of images by the image processing means. Recognizes a clearly imaged object in each of the images, and captures each of the plurality of images at the time of imaging. And generating an object distribution image displaying the position of the recognized object in accordance with the Kashingu distance.

本発明の画像処理方法において、前記撮像手段は、前記フォーカススイープを繰り返して複数回行い、前記画像処理手段は、該複数回のフォーカススイープに応じて前記物体分布画像を複数枚生成することが望ましい。   In the image processing method according to the aspect of the invention, it is preferable that the imaging unit repeatedly performs the focus sweep a plurality of times, and the image processing unit generates a plurality of the object distribution images according to the plurality of focus sweeps. .

本発明による移動体衝突防止装置は移動体に設けられ、該移動体の周囲を撮像する撮像手段と、該撮像手段が撮像した画像を処理する画像処理手段と、衝突判定手段とを備え、前記撮像手段は、撮像レンズと、該撮像レンズを駆動してフォーカシング距離を変更する合焦機構と、撮像素子とを有し、該合焦機構は、前記撮像レンズを駆動して、前記移動体から離れている複数の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、前記撮像手段は、該フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれの画像を撮像し、前記画像処理手段は、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成し、前記衝突判定手段は、該物体分布画像に基づいて前記移動体と前記認識された物体とが衝突するか否かを判定することを特徴とする。   A moving object collision preventing apparatus according to the present invention is provided on a moving object, and includes an imaging unit that images the periphery of the moving object, an image processing unit that processes an image captured by the imaging unit, and a collision determination unit, The imaging means includes an imaging lens, a focusing mechanism that drives the imaging lens to change a focusing distance, and an imaging element. The focusing mechanism drives the imaging lens to move from the moving body. A focus sweep is performed to sequentially change a focusing distance so that a plurality of distant objects are clearly imaged on the image sensor, and the imaging unit displays each image according to a plurality of different focusing distances in the focus sweep. The image processing means recognizes an object that is clearly imaged in each of the plurality of images from the plurality of captured images, and the plurality of images An object distribution image that displays a position of the recognized object corresponding to a focusing distance at the time of capturing each of the images is generated, and the collision determination unit recognizes the moving object based on the object distribution image. It is characterized by determining whether or not the object collides.

本発明の移動体衝突防止装置によれば、衝突判定手段が、画像処理手段で生成される物体分布画像により衝突を判断することにより、効果的に移動体の衝突事故を回避することができる。   According to the mobile object collision preventing apparatus of the present invention, the collision determination unit can effectively avoid the collision accident of the mobile object by determining the collision from the object distribution image generated by the image processing unit.

また、本発明の移動体衝突防止装置は、物体分布画像を表示する表示手段を有し、前記衝突判定手段は、前記移動体と前記認識された物体とが衝突すると判定すると、前記表示手段は、該物体を異なる色で表示する。また、移動体の操縦者に通知する通知手段を備え、前記衝突判定手段は、前記移動体と前記認識された物体とが衝突すると判定すると、前記通知手段は前記操縦者へ警告メッセージを発生する。さらに、前記物体分布画像を表示する表示手段を有し、前記画像処理手段は、該物体分布画像に距離の間隔を表す格子線の表示を加えることが望ましい。   The moving body collision preventing apparatus of the present invention has display means for displaying an object distribution image, and when the collision determination means determines that the moving body and the recognized object collide, the display means , Display the object in different colors. In addition, a notification means for notifying a pilot of a mobile object is provided, and when the collision determination means determines that the mobile object and the recognized object collide, the notification means generates a warning message to the pilot. . Furthermore, it is preferable that display means for displaying the object distribution image is provided, and the image processing means adds display of grid lines representing distance intervals to the object distribution image.

以上により、衝突判定手段が衝突すると判断した場合、表示手段または通知手段は、迅速に移動体の操縦者や車両の運転者に警告し、衝突を対応するように促す。これにより、衝突事故を回避することができる。   As described above, when the collision determination unit determines that a collision occurs, the display unit or the notification unit promptly warns the driver of the moving body or the driver of the vehicle and prompts the collision to be dealt with. Thereby, a collision accident can be avoided.

また、本発明の移動体衝突防止装置は、前記移動体の移動を制御する移動体制御手段を備え、該移動体と前記認識された物体とが衝突すると前記衝突判定手段が判定すると、前記移動体制御手段は、前記移動体のブレーキ、アクセル、または操舵を制御することが望ましい。こうして、移動体制御手段により移動体を操縦し、衝突事故を回避し、また自動走行を実現することができる。   The moving object collision preventing apparatus of the present invention further includes moving object control means for controlling the movement of the moving object, and the movement determining means determines that the moving object and the recognized object collide with each other. It is desirable that the body control means controls the brake, accelerator or steering of the moving body. In this way, it is possible to steer the moving body by the moving body control means, avoid a collision accident, and realize automatic traveling.

また、本発明の移動体衝突防止装置は、前記移動体の速度を検出する速度検出手段を備え、前記衝突判定手段は、該速度検出手段が検出した前記移動体の速度から、該移動体と前記認識された物体とが衝突するか否かを判定することが望ましい。速度検出手段を備えることにより、衝突判定手段はより精確に衝突するかどうかを判断することができる。   The moving body collision preventing apparatus of the present invention further includes speed detecting means for detecting the speed of the moving body, and the collision determining means is configured to detect the moving body from the speed of the moving body detected by the speed detecting means. It is desirable to determine whether or not the recognized object collides. By providing the speed detection means, the collision determination means can determine whether or not to collide more accurately.

また、本発明の移動体衝突防止装置において、前記撮像レンズはズームレンズであり、前記撮像手段は、該ズームレンズを駆動しその焦点距離を変更するズーミング機構を備え、該ズーミング機構は、フォーカシング距離が所定値より長くなるとき、前記ズームレンズを駆動してその焦点距離を長くし、前記フォーカシング距離が所定値より短くなるとき、前記ズームレンズを駆動してその焦点距離を短くすることが望ましい。これにより、画像処理手段で、物体を認識する際の精度がさらに向上し、遠くにある物体もより正確に認識できる。   In the moving object collision preventing apparatus of the present invention, the imaging lens is a zoom lens, and the imaging means includes a zooming mechanism that drives the zoom lens and changes a focal distance thereof, and the zooming mechanism includes a focusing distance. When the zoom lens is longer than a predetermined value, it is desirable to drive the zoom lens to increase its focal length, and when the focusing distance is shorter than a predetermined value, it is preferable to drive the zoom lens to shorten the focal length. Thereby, the accuracy at the time of recognizing an object by the image processing means is further improved, and an object located far away can be recognized more accurately.

本発明による移動体衝突防止装置は移動体に設けられ、該移動体の周囲を撮像する撮像手段と、該撮像手段が撮像した画像を処理する画像処理手段と、表示手段とを備え、前記撮像手段は、撮像レンズと、該撮像レンズを駆動しフォーカシング距離を変更する合焦機構と、撮像素子とを有し、該合焦機構は、前記撮像レンズを駆動して、前記移動体から離れている複数の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、前記撮像手段は、該フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれ枚の画像を撮像し、前記画像処理手段は、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成し、前記表示手段は、該物体分布画像を表示することを特徴とする。また、物体分布画像は3次元画像であってもよい。   A moving object collision prevention apparatus according to the present invention is provided on a moving object, and includes an imaging unit that images the periphery of the moving unit, an image processing unit that processes an image captured by the imaging unit, and a display unit. The means includes an imaging lens, a focusing mechanism that drives the imaging lens to change a focusing distance, and an imaging element. The focusing mechanism drives the imaging lens and moves away from the moving body. A focus sweep that sequentially changes a focusing distance so that a plurality of objects are clearly imaged on the image sensor, and the imaging unit captures a single image according to a plurality of different focusing distances in the focus sweep. The image processing means recognizes an object that is clearly imaged in each of the plurality of images from the plurality of captured images, and the plurality of images. Each corresponds to focusing distance at the time of imaging to produce an object distribution image displaying the position of the recognized object, the display means, and displaying the said object distribution image. The object distribution image may be a three-dimensional image.

画像処理手段により生成された物体分布画像を表示手段で表示することにより、移動体の操縦者をまたは車両の運転者が移動体周囲の物体の位置を確認することができ、安全性がさらに向上する。   By displaying the object distribution image generated by the image processing means on the display means, the driver of the moving body or the driver of the vehicle can confirm the position of the object around the moving body, further improving safety. To do.

図1は本発明の一つの実施形態に係る移動体衝突防止装置の構成を示す概略ブロック図である。FIG. 1 is a schematic block diagram showing a configuration of a moving object collision preventing apparatus according to an embodiment of the present invention. 図2は、図1に示す実施形態における撮像部の構成を概略的に示す側断面図である。FIG. 2 is a side sectional view schematically showing the configuration of the imaging unit in the embodiment shown in FIG. 図3は撮像部の撮像範囲を説明するための模式図である。FIG. 3 is a schematic diagram for explaining the imaging range of the imaging unit. ないしOr 図4A〜図4Eは、撮像部が1回のフォーカススイープにおいて撮像した複数枚の画像の例を示す図である。4A to 4E are diagrams illustrating examples of a plurality of images captured by the imaging unit in one focus sweep. 図5は、図1に示す実施形態における画像処理のフローチャットである。FIG. 5 is a flow chat of image processing in the embodiment shown in FIG. 図6は、図1に示す画像処理部が生成した物体分布画像の例を示す、図3と同様の模式図である。6 is a schematic diagram similar to FIG. 3, showing an example of an object distribution image generated by the image processing unit shown in FIG. 図7は同画像処理部が3次元の物体分布図を生成する方法を説明する図である。FIG. 7 is a diagram for explaining a method in which the image processing unit generates a three-dimensional object distribution map.

以下、図面を参照しながら、本発明に係る画像処理装置を用いた移動体衝突防止装置の実施形態を説明する。本実施形態に係る移動体衝突防止装置は、本実施形態の画像処理装置が生成した物体分布画像を利用して車両等の移動体が他の物体もしくは人体などの障害物と衝突するか否かを精確に判断できる。なお、本特許出願全体を通じて用語「物体」は、人体を含む広義に解釈することがある。   Hereinafter, embodiments of a moving object collision prevention apparatus using an image processing apparatus according to the present invention will be described with reference to the drawings. The moving object collision preventing apparatus according to the present embodiment uses the object distribution image generated by the image processing apparatus according to the present embodiment to determine whether a moving object such as a vehicle collides with another object or an obstacle such as a human body. Can be determined accurately. Throughout this patent application, the term “object” may be interpreted broadly including the human body.

図1は、本発明の一つの実施形態に係る移動体衝突防止装置10の構成を概略的に示すブロック図である。本実施形態に係る移動体衝突防止装置10は、移動体、例えば車両20に配置され、その搭載された車両20の衝突事故を回避することができる。   FIG. 1 is a block diagram schematically showing a configuration of a moving object collision preventing apparatus 10 according to an embodiment of the present invention. The moving body collision preventing apparatus 10 according to the present embodiment is disposed in a moving body, for example, the vehicle 20, and can avoid a collision accident of the mounted vehicle 20.

図1に示すように、衝突防止装置10は、撮像部120、画像処理部140、速度検出部150、表示部200、音声部210、振動部220、読出し専用メモリ(Read-Only Memory:ROM)230、衝突判断部310、車両制御部400、および衝突防止装置10の各構成要素を制御する制御部100を含み、これらは図示のように接続されている。   As shown in FIG. 1, the collision prevention apparatus 10 includes an imaging unit 120, an image processing unit 140, a speed detection unit 150, a display unit 200, an audio unit 210, a vibration unit 220, and a read-only memory (ROM). 230, a collision determination unit 310, a vehicle control unit 400, and a control unit 100 that controls each component of the collision prevention apparatus 10, which are connected as shown in the figure.

撮像部120は、車両20の通常の進行方向の前方にその視野を確保するように設置され、車両20前方の被写界を撮像する撮影装置である。これは、後述のようにフォーカススイープを行いながら、被写界を撮像した複数枚の画像フレームを生成し、これを制御部100を介して画像処理部140に転送する。   The imaging unit 120 is an imaging device that is installed so as to secure the field of view in front of the normal traveling direction of the vehicle 20 and captures an object scene in front of the vehicle 20. This generates a plurality of image frames in which the object scene is imaged while performing a focus sweep as will be described later, and transfers them to the image processing unit 140 via the control unit 100.

画像処理部140は、撮像部120により送られた画像フレームを受け、各画像フレームに鮮明に成像された画像の有無を判別し、その鮮明な画像に対応する物体や人体を認識ないしは検出する画像処理機能を有する。画像処理部140はさらに、この鮮明に成像した物体や人体の車両20との距離に基づいて、両者間の相対位置の分布を示す物体分布画像を生成する。   The image processing unit 140 receives the image frame sent from the imaging unit 120, determines the presence or absence of an image clearly formed in each image frame, and recognizes or detects an object or a human body corresponding to the clear image Has a processing function. Further, the image processing unit 140 generates an object distribution image indicating the distribution of relative positions between the two based on the distance between the clearly imaged object and the human body vehicle 20.

撮像部120と画像処理部140は、本願発明に係る画像処理装置を構成する。このような画像処理装置は、車両20の前方の景物を撮像し、車両20の前方にある各々の物体や人体を認識または判別し、車両20に対する各物体や人体の位置を示す物体分布画像を生成する。これについて、後に詳細に説明する。   The imaging unit 120 and the image processing unit 140 constitute an image processing apparatus according to the present invention. Such an image processing apparatus images a scene in front of the vehicle 20, recognizes or discriminates each object or human body in front of the vehicle 20, and generates an object distribution image indicating the position of each object or human body with respect to the vehicle 20. Generate. This will be described in detail later.

表示部200は、画像処理部140で生成される物体分布画像を可視表示し、車両20の運転者に車両20前方に物体や人体などの障害物があるか否かを知らせる。   The display unit 200 visually displays the object distribution image generated by the image processing unit 140, and notifies the driver of the vehicle 20 whether there is an obstacle such as an object or a human body in front of the vehicle 20.

衝突判断部310は、画像処理部140で生成された物体分布画像に基づき、認識された物体に車両20が衝突するか否かを判断する処理機能部である。速度検出部150は、車両20の走行速度を検出する車速測定機能部である。衝突判断部310はさらに、速度検出部150から出力される速度情報も使用して、車両20が走行に支障をきたす物体や人体などの障害物と衝突するか否かを判断する。   The collision determination unit 310 is a processing function unit that determines whether the vehicle 20 collides with a recognized object based on the object distribution image generated by the image processing unit 140. The speed detection unit 150 is a vehicle speed measurement function unit that detects the traveling speed of the vehicle 20. The collision determination unit 310 further uses the speed information output from the speed detection unit 150 to determine whether the vehicle 20 collides with an obstacle such as an object or a human body that interferes with traveling.

衝突が発生すると衝突判断部310が判断した場合、音声部210は可聴音声の警告メッセージを生成し、および/または振動部220が振動によって警報を発し、車両20の運転者に緊急対応をとるように促すことで、衝突事故の回避に供する。   If the collision determination unit 310 determines that a collision occurs, the audio unit 210 generates an audible audio warning message and / or the vibration unit 220 issues an alarm by vibration to take an emergency response to the driver of the vehicle 20 This will help avoid collision accidents.

また、車両20が他の物体や人体と衝突すると衝突判断部310が判断した場合、車両制御部400は、車両20の走行駆動系、例えばブレーキ、アクセルおよび/または操舵を制御することにより、衝突事故を回避するように構成してもよい。制御部100は、衝突防止装置10の各部分を制御して、これらの制御を行うシステム制御機能部である。   Further, when the collision determination unit 310 determines that the vehicle 20 collides with another object or a human body, the vehicle control unit 400 controls the traveling drive system of the vehicle 20 such as a brake, an accelerator, and / or a steering to control the collision. You may comprise so that an accident may be avoided. The control unit 100 is a system control function unit that controls each part of the collision prevention apparatus 10 and performs these controls.

次に、衝突防止装置10の各部分の構成を詳しく説明する。まず、図2は撮像部120の構成例を示す模式的側断面図である。図2から分かるように、衝突防止装置10の撮像部120は、撮像レンズ121、電荷結合デバイス(CCD)センサ122および駆動モータ123を備える。撮像レンズ121は、例えば複数枚のレンズのセットで構成される光学レンズである。被写界から到来する光は、レンズ121に入射してCCDセンサ122の撮像面に結像し、CCDセンサ122は被写界の画像フレームを形成する。駆動モータ123はレンズ121のレンズセットを駆動、すなわち各レンズを光軸125の方向に移動させ、これにより車両20から異なる距離にある各物体を順次、CCDセンサ122に鮮明に結像させる合焦機構である。   Next, the configuration of each part of the collision preventing apparatus 10 will be described in detail. First, FIG. 2 is a schematic side sectional view showing a configuration example of the imaging unit 120. As can be seen from FIG. 2, the imaging unit 120 of the collision prevention apparatus 10 includes an imaging lens 121, a charge coupled device (CCD) sensor 122, and a drive motor 123. The imaging lens 121 is an optical lens configured by a set of a plurality of lenses, for example. Light coming from the object scene enters the lens 121 and forms an image on the imaging surface of the CCD sensor 122, and the CCD sensor 122 forms an image frame of the object scene. The drive motor 123 drives the lens set of the lens 121, that is, moves each lens in the direction of the optical axis 125, thereby focusing each object at different distances from the vehicle 20 sequentially and clearly on the CCD sensor 122. Mechanism.

図3は撮像部120が撮像する範囲を示す図である。図3に示すように、レンズ121は一定の撮像角度すなわち画角αで車両20の前方被写界を撮像する。撮像角度α内の物体や人体は、レンズ121を介してCCDセンサ122に結像される。この場合、撮像部120のフォーカシング距離に位置し光軸125に実質的に垂直な仮想平面に含まれる物体のみがCCDセンサ122に鮮明な像を形成することができる。よって、駆動モータ123がレンズ121の各レンズを光軸125上で前方または後方に移動させて撮像部120のフォーカシング距離を変更し続けることにより、レンズ121の撮像範囲α内にある様々な物体または人体は、遠くから近くまで、あるいは近くから遠くまで、順次、CCDセンサ122に鮮明に結像される。   FIG. 3 is a diagram illustrating a range in which the imaging unit 120 captures an image. As shown in FIG. 3, the lens 121 images the front scene of the vehicle 20 at a constant imaging angle, that is, the angle of view α. An object or human body within the imaging angle α is imaged on the CCD sensor 122 via the lens 121. In this case, only an object included in a virtual plane located at the focusing distance of the imaging unit 120 and substantially perpendicular to the optical axis 125 can form a clear image on the CCD sensor 122. Therefore, the drive motor 123 continues to change the focusing distance of the imaging unit 120 by moving each lens of the lens 121 forward or backward on the optical axis 125, so that various objects within the imaging range α of the lens 121 or The human body is imaged sharply on the CCD sensor 122 sequentially from a distance to a distance or from a distance to a distance.

本願において、撮像部120のフォーカシング距離を増加または減少し続け、前方の異なる位置にある各物体が順次CCDセンサ122に鮮明な像を形成する動作を、「フォーカススイープ」と呼ぶ。   In the present application, an operation in which the focusing distance of the imaging unit 120 is continuously increased or decreased and each object at a different position in front sequentially forms a clear image on the CCD sensor 122 is referred to as “focus sweep”.

駆動モータ123は、光学レンズに用いられる電動モータまたはピエゾ素子等のいずれの駆動手段であってもよい。制御部100は、例えば予め設定された何種類かのフォーカシング距離に従って駆動モータ123を所定の回転角度まで回転させ、そのフォーカシング距離に対応する実距離にある物体または人体をCCDセンサ122で鮮明に結像させることができる。   The drive motor 123 may be any drive means such as an electric motor or a piezo element used for an optical lens. For example, the control unit 100 rotates the drive motor 123 to a predetermined rotation angle according to several preset focusing distances, and the CCD sensor 122 clearly connects an object or human body at an actual distance corresponding to the focusing distance. Can be imaged.

駆動モータ123がレンズ121を駆動してフォーカシングスイープを行うと、CCDセンサ122によって時系列上で複数枚の画像フレームが撮像される。例えば、図3に示すように、1回のフォーカシングスイープ動作において、フォーカシング距離が50メートル(m)、40m、30m、20m、10mというように順次シフトして、合計5枚の画像FRAME1〜FRAME5が撮像される。   When the driving motor 123 drives the lens 121 to perform a focusing sweep, the CCD sensor 122 captures a plurality of image frames in time series. For example, as shown in FIG. 3, in one focusing sweep operation, the focusing distance is sequentially shifted to 50 meters (m), 40 m, 30 m, 20 m, 10 m, and a total of five images FRAME1 to FRAME5 are obtained. Imaged.

図4A〜図4Eは1回のフォーカシングスイープに撮像された複数枚の画像FRAME1〜FRAME5を示す。図4Aは、フォーカシング距離が50mである場合に撮像された画像FRAME1を示し、図4Bは、フォーカシング距離が40mである場合に撮像された画像FRAME2を示し、図4Cは、フォーカシング距離が30mである場合に撮像された画像FRAME3を示し、図4Dは、フォーカシング距離が20mである場合に撮像された画像FRAME4を示し、図4Eは、フォーカシング距離が10mである場合に撮像された画像FRAME5を示す。   4A to 4E show a plurality of images FRAME1 to FRAME5 taken in one focusing sweep. FIG. 4A shows an image FRAME1 captured when the focusing distance is 50 m, FIG. 4B shows an image FRAME2 captured when the focusing distance is 40 m, and FIG. 4C shows a focusing distance of 30 m. FIG. 4D shows an image FRAME4 picked up when the focusing distance is 20 m, and FIG. 4E shows an image FRAME5 picked up when the focusing distance is 10 m.

図4A〜図4Eにおいて、太線はCCDセンサ122上に鮮明な像が結像された物体の像を示し、細線はCCDセンサ122に鮮明な像が結像されていない物体の像を示す。   4A to 4E, a thick line indicates an image of an object on which a clear image is formed on the CCD sensor 122, and a thin line indicates an image of an object on which no clear image is formed on the CCD sensor 122.

図4Aに示すように、車両20前方、撮像角度α範囲内にあって車両20から50m離れた鉛直平面における物体が鮮明に結像される。ここで、CCDセンサ122に鮮明に結像された物体には、前方50mの位置にある路面標識30a、路肩30bの一部、および道路寄りの建物30cなどがある。よって、これらの物体の鮮明な像(太線)と他の物体の暈けた像、すなわち非合焦像(細線)を含む画像FRAME1が得られる。   As shown in FIG. 4A, an object on a vertical plane that is in front of the vehicle 20 and within the imaging angle α range and 50 m away from the vehicle 20 is clearly imaged. Here, the object clearly imaged on the CCD sensor 122 includes a road surface marker 30a located at a position 50 m ahead, a part of the road shoulder 30b, and a building 30c near the road. Therefore, an image FRAME1 including a clear image (thick line) of these objects and a blurred image of other objects, that is, an out-of-focus image (thin line) is obtained.

図4Bに示すように、駆動モータ123がレンズ121を駆動してフォーカシング距離が短くなると、車両20前方から40m離れた位置における物体が鮮明に結像される。ここで、CCDセンサ122で鮮明に結像された物体として前方40mの位置にある路面標識30aの一部、路肩30bの一部、および他の車両30dなどがある。そこで、これらの物体の鮮明な像と他の物体の暈けた像を含む画像FRAME2が得られる。   As shown in FIG. 4B, when the driving motor 123 drives the lens 121 to shorten the focusing distance, an object at a position 40 m away from the front of the vehicle 20 is clearly imaged. Here, examples of the object that is clearly imaged by the CCD sensor 122 include a part of the road marking 30a, a part of the road shoulder 30b, and another vehicle 30d at a position 40m ahead. Therefore, an image FRAME2 including a clear image of these objects and a blurred image of other objects is obtained.

図4Cに示すように、駆動モータ123がレンズ121をさらに駆動してフォーカシング距離がさらに短くなると、車両20前方から30m離れた位置における物体が鮮明に結像される。ここで、CCDセンサ122に鮮明に結像された物体として前方30mの位置にある路面標識30aの一部、路肩30bの一部、および道路の傍の木30eなどがある。これらの物体の鮮明な像と他の物体の暈けた像を含む画像FRAME3が得られる。   As shown in FIG. 4C, when the driving motor 123 further drives the lens 121 to further reduce the focusing distance, an object at a position 30 m away from the front of the vehicle 20 is clearly imaged. Here, there are a part of the road surface marker 30a, a part of the road shoulder 30b, a tree 30e near the road, and the like as objects that are clearly imaged on the CCD sensor 122. An image FRAME3 including a clear image of these objects and a blurred image of other objects is obtained.

図4Dに示すように、駆動モータ123によりレンズ121をさらに駆動してフォーカシング距離がさらに短くなると、車両20前方から20m離れた位置における物体が鮮明に結像される。ここで、CCDセンサ122で鮮明に結像された物体には、前方20mの位置にある路面標識30aの一部、路肩30bの一部、および自転車30fなどがある。これらの物体の鮮明な像と他の物体の暈けた像を含む画像FRAME4が得られる。   As shown in FIG. 4D, when the lens 121 is further driven by the drive motor 123 to further reduce the focusing distance, an object at a position 20 m away from the front of the vehicle 20 is clearly imaged. Here, examples of the object that is clearly imaged by the CCD sensor 122 include a part of the road surface marker 30a, a part of the road shoulder 30b, a bicycle 30f, and the like located 20m ahead. An image FRAME4 including a clear image of these objects and a blurred image of other objects is obtained.

さらに、図4Eに示すように、駆動モータ123によりレンズ121を駆動してフォーカシング距離がさらに短くなると、車両20前方から10m離れた位置における物体が鮮明に結像される。ここで、CCDセンサ122で鮮明に結像した物体としては、前方10mの位置にある路面標識30aの一部、および路肩30bの一部などがある。これらの物体の鮮明な像と他の物体の暈けた像を含む画像FRAME5が得られる。   Further, as shown in FIG. 4E, when the lens 121 is driven by the drive motor 123 to further shorten the focusing distance, an object at a position 10 m away from the front of the vehicle 20 is clearly imaged. Here, examples of the object that is clearly imaged by the CCD sensor 122 include a part of the road surface marker 30a and a part of the road shoulder 30b at a position 10 m ahead. An image FRAME5 including a clear image of these objects and a blurred image of other objects is obtained.

撮像部120により撮像された各画像FRAME1〜FRAME5は、画像信号として画像処理部140に入力され、画像処理部140において後述のように処理される。   The images FRAME1 to FRAME5 picked up by the image pickup unit 120 are input to the image processing unit 140 as image signals and processed in the image processing unit 140 as described later.

次に、衝突防止装置10の動作について詳細に説明する。本実施形態のフォーカシングスイープでは、最も長いフォーカシング距離を50mとし、最も短いフォーカシング距離を10mとし、1回のフォーカシングスイープにおいて、フォーカシング距離を50m、40m、30m、20m、10mと順次短くし、あるいは、10m、20m、30m、40m、50mと順次長くし、こうしてそれぞれのフォーカシング距離で画像フレームを撮り、1回のフォーカシングスイープにおいて5枚の画像FRAME1〜FRAME5が撮像される。   Next, the operation of the collision preventing apparatus 10 will be described in detail. In the focusing sweep of the present embodiment, the longest focusing distance is 50 m, the shortest focusing distance is 10 m, and in one focusing sweep, the focusing distance is sequentially shortened to 50 m, 40 m, 30 m, 20 m, 10 m, or 10 m, 20 m, 30 m, 40 m, and 50 m are made longer in this order, and thus image frames are taken at the respective focusing distances, and five images FRAME1 to FRAME5 are imaged in one focusing sweep.

図5は衝突防止装置10における処理を示すフロチャートである。同図に示すように、先ず、ステップS501においてフォーカススイープが開始する。撮像部120の駆動モータ123は、前方50mの物体がCCDセンサ122に鮮明に結像されるよう、すなわちフォーカシング距離を50mにするように、レンズ121を駆動する。   FIG. 5 is a flowchart showing processing in the collision preventing apparatus 10. As shown in the figure, first, the focus sweep starts in step S501. The drive motor 123 of the imaging unit 120 drives the lens 121 so that an object 50 m ahead is clearly imaged on the CCD sensor 122, that is, the focusing distance is 50 m.

ステップS502において、CCDセンサ122は、被写界の画像FRAME1を取得し、画像FRAME1を画像処理部140へ出力する。   In step S502, the CCD sensor 122 acquires the image FRAME1 of the object scene and outputs the image FRAME1 to the image processing unit 140.

そして、ステップS503において、画像処理部140は、撮像部120から送られた画像FRAME1において鮮明な像が結像された物体の像の有無を判別する。この例では、画像処理部140は、鮮明な像が結像された前方50m離れた路面標識30aの一部、路肩30bの一部、および道路脇の建物30cなどの物体の像を認識する。また、画像FRAME1には、車両20前方の他の車両30d、木30eおよび自転車30fなども撮像されているものの、鮮明に撮られていないため、画像処理部140により認識されることはない。   In step S503, the image processing unit 140 determines whether there is an image of an object on which a clear image is formed in the image FRAME1 sent from the imaging unit 120. In this example, the image processing unit 140 recognizes an image of an object such as a part of a road surface sign 30a, a part of a road shoulder 30b, a part of a road shoulder 30b, and a building 30c beside a road on which a clear image is formed. Further, in the image FRAME1, other vehicles 30d in front of the vehicle 20, trees 30e, bicycles 30f, and the like are also captured, but are not clearly captured and are not recognized by the image processing unit 140.

また、ステップS504において、画像処理部140は、画像FRAME1の撮像時のフォーカシング距離に基づいて、これら認識した路面標識30aの部分、路肩30bの部分および建物30cなどの物体の位置を計算し、それらの物体の位置を示す分布画像を生成する。   In step S504, the image processing unit 140 calculates the position of the recognized object such as the road marking 30a, the road shoulder 30b, and the building 30c based on the focusing distance when the image FRAME1 is captured. A distribution image indicating the position of the object is generated.

図6は画像処理部140が生成した物体分布画像を示す。この時点でのフォーカシング距離は50mであるので、前方50m離れた垂直平面内にある物体しか鮮明に結像できない。また、これら鮮明に結像された物体の画像FRAME1における座標位置は、画像FRAME1が撮られたときの角度位置により特定される。これにより、画像処理部140は、図6に示される物体分布画像において、車両20の前方、50m離れる位置に、上述の認識された路面標識30aの部分、路肩30bの部分および建物30cなどの物体を表わす図形を生成する。この図形は、一見してその物体の特性、つまりその物体が何であるかを把握できるものでよい。   FIG. 6 shows an object distribution image generated by the image processing unit 140. Since the focusing distance at this point is 50 m, only an object in a vertical plane 50 m away from the front can clearly form an image. Also, the coordinate position of the clearly imaged object in the image FRAME1 is specified by the angular position when the image FRAME1 is taken. As a result, the image processing unit 140 detects objects such as the recognized road marking 30a, the road shoulder 30b, and the building 30c in the object distribution image shown in FIG. A graphic representing the is generated. This figure may be a figure that can grasp the characteristics of the object at a glance, that is, what the object is.

そこで、ステップS505において、1回のフォーカシングスイープで撮像部120に撮像されるすべての画像フレームについて上述の処理が完了したか否かを判断し、まだ完了していない場合はステップS506へ進む。   Therefore, in step S505, it is determined whether or not the above-described processing has been completed for all image frames captured by the imaging unit 120 in one focusing sweep. If not, the process proceeds to step S506.

ステップS506において、駆動モータ120はレンズ121を駆動してフォーカシング距離を調整する。例えば、フォーカシング距離を短くし、車両20の前方40m離れる位置にある物体をCCDセンサ122に鮮明に結像させる。   In step S506, the drive motor 120 drives the lens 121 to adjust the focusing distance. For example, the focusing distance is shortened, and an object at a position 40 m ahead of the vehicle 20 is clearly imaged on the CCD sensor 122.

次に、ステップS502以降の各ステップを再度実行する。ステップS502において、撮像部120はCCDセンサ122により画像FRAME2(図4B)を取得し、画像FRAME2を画像処理部140へ送る。   Next, each step after step S502 is executed again. In step S502, the imaging unit 120 acquires the image FRAME2 (FIG. 4B) by the CCD sensor 122, and sends the image FRAME2 to the image processing unit 140.

ステップS503において、画像処理部140は、上述した画像FRAME1についての処理と同様に、画像FRAME2から、鮮明に結像された物体として車両20の前方40m離れた路面標識30aの一部、路肩30bの一部、および他の車両30dなどを認識する。   In step S503, the image processing unit 140, like the processing for the image FRAME1 described above, from the image FRAME2, a part of the road marking 30a 40m away from the vehicle 20 as a clearly imaged object, the road shoulder 30b. Recognize some and other vehicles 30d.

ステップS504では、前述と同様に、画像処理部140は、画像FRAME2が撮像されるときのフォーカシング距離(この場合、40m)に基づいて、物体分布画像において本車両20から40m離れた距離に相当する位置に、画像FRAME2から判別した路面標識30aの部分、路肩30bの部分、および他の車両30dなどの物体を表わす図形を生成する。   In step S504, as described above, the image processing unit 140 corresponds to a distance 40 m away from the vehicle 20 in the object distribution image based on the focusing distance (40 m in this case) when the image FRAME2 is captured. A figure representing an object such as a portion of the road marking 30a, a portion of the road shoulder 30b, and another vehicle 30d determined from the image FRAME2 is generated at the position.

そして、ステップS505では、1回のフォーカシングスイープで撮像部120に撮像される全画像フレームについて上述の処理が完了したか否かを判断し、この説明例では、引き続きFRAME3〜FRAME5を撮像すべく、同様な処理を行う。次に画像FRAME3〜FRAME5についての処理を簡単に説明する。   In step S505, it is determined whether or not the above-described processing has been completed for all image frames captured by the imaging unit 120 in one focusing sweep. In this example, FRAME3 to FRAME5 are continuously captured. Similar processing is performed. Next, processing for the images FRAME3 to FRAME5 will be briefly described.

撮像部120はフォーカシング距離を30mにし、画像FRAME3を撮像する。画像処理部140は、車両20の前方30m離れ、鮮明に結像された路面標識30aの一部、路肩30bの一部、および木30eなどの物体の像を認識する。画像処理部140は、図6に示す物体分布画像において、前方30mに対応する位置にこれらの物体を表わす図形を生成する。   The imaging unit 120 images the image FRAME3 with a focusing distance of 30 m. The image processing unit 140 recognizes an image of an object such as a part of the road marking 30a, a part of the road shoulder 30b, and a tree 30e that is clearly imaged 30m away from the vehicle 20. The image processing unit 140 generates a graphic representing these objects at a position corresponding to 30 m ahead in the object distribution image shown in FIG.

次に、撮像部120はフォーカシング距離を20mにし、画像FRAME4を撮像する。画像処理部140は、車両20の前方20m離れ、鮮明に結像された路面標識30aの部分、路肩30bの部分、および自転車30fなどの物体の像を認識し、図6に示す物体分布画像において、前方20mに対応する位置にこれらの物体を表わす図形を生成する。   Next, the imaging unit 120 sets the focusing distance to 20 m and captures the image FRAME4. The image processing unit 140 recognizes images of objects such as the road marking 30a, the road shoulder 30b, and the bicycle 30f that are clearly imaged 20m away from the vehicle 20, and in the object distribution image shown in FIG. Then, figures representing these objects are generated at positions corresponding to the front 20 m.

さらに撮像部120は、フォーカシング距離を10mにし、画像FRAME5を撮像する。画像処理部140は、車両20の前方10m離れ、鮮明に結像された路面標識30aの一部、路肩30bの一部などの物体の像を認識し、図6に示す物体分布画像において、前方10mに対応する位置にこれらの物体を表わす図形を生成する。   Further, the imaging unit 120 images the image FRAME5 with the focusing distance set to 10 m. The image processing unit 140 recognizes an image of an object such as a part of the road surface marker 30a and a part of the road shoulder 30b that are separated from each other 10m ahead of the vehicle 20 and is clearly imaged. Figures representing these objects are generated at positions corresponding to 10 m.

画像処理部140は、1回のフォーカシングスイープにおいて撮像される全画像フレームについて、ステップS503とS504の処理を行うと、車両20前方の物体の位置分布を示す、図6に示される物体分布画像が完成する。図6の物体分布画像には、撮像部120により撮像された車両20前方50m〜10mの範囲におけるすべての物体が含まれている。   When the image processing unit 140 performs the processing of steps S503 and S504 for all image frames captured in one focusing sweep, the object distribution image shown in FIG. 6 showing the position distribution of the object in front of the vehicle 20 is obtained. Complete. The object distribution image in FIG. 6 includes all objects in the range of 50 m to 10 m ahead of the vehicle 20 imaged by the imaging unit 120.

ステップS505において、1回のフォーカシングスイープに撮像される全画像フレームについて画像処理が完了したと判定されると、制御はステップS501に戻る。撮像部120は、前回使ったフォーカシング距離(この例では、10m)から再度フォーカシングスイープを行ってもよい。このとき、再度複数枚の画像フレームが撮像され、画像処理部140は次の物体分布画像を生成し、現在表示されている物体分布画像を更新する。   If it is determined in step S505 that the image processing has been completed for all image frames captured in one focusing sweep, the control returns to step S501. The imaging unit 120 may perform the focusing sweep again from the previously used focusing distance (10 m in this example). At this time, a plurality of image frames are captured again, and the image processing unit 140 generates the next object distribution image and updates the currently displayed object distribution image.

表示部200は生成された物体分布画像を表示する。車両20の運転者は、この表示から車両20の前方における建物、木、車両、自転車および歩行者を発見でき、衝突事故を効果的に回避することができる。また、物体分布画像により、車両20の運転者に道路標識および路肩などの標識物を知らせることができ、運転者は表示された路面標識に沿って車両20を容易に操縦することができる。   The display unit 200 displays the generated object distribution image. The driver of the vehicle 20 can find buildings, trees, vehicles, bicycles and pedestrians in front of the vehicle 20 from this display, and can effectively avoid a collision accident. In addition, the object distribution image can notify the driver of the vehicle 20 of a sign such as a road sign and a road shoulder, and the driver can easily steer the vehicle 20 along the displayed road sign.

また、衝突判断部310は、画像処理部140で生成される物体分布画像に基づき、車両20が障害物などに衝突するか否かを判断することができる。   The collision determination unit 310 can determine whether the vehicle 20 collides with an obstacle or the like based on the object distribution image generated by the image processing unit 140.

車両20から前方にある障害物との距離が所定の安全距離より短い場合、衝突判断部310は衝突する危険があると判断し、表示部200は、目立つ色、例えば赤色でその危険性障害物を表示して車両20の運転者に知らせる。また、音声部210が警告音を発生して警告してもよい。さらに、振動部220が振動して警告してもよい。   When the distance from the vehicle 20 to the obstacle ahead is shorter than the predetermined safety distance, the collision determination unit 310 determines that there is a danger of collision, and the display unit 200 displays the dangerous obstacle in a conspicuous color, for example, red. Is displayed to inform the driver of the vehicle 20. Further, the sound unit 210 may generate a warning sound to warn. Further, the vibration unit 220 may vibrate and warn.

また、画像処理部140が生成した物体分布画像には、建物、樹木、植込みなどの路傍構造物、他の自動車や、自転車などの軽車両、歩行者のほか、路面標識や路肩も表示されている。よって、衝突判断部310は、自車両20がそのような路面標識や路肩と「衝突」するか否かを判断することがある。衝突判断部310は、車両20が路面標識や路肩と衝突すると判断すると、車両20が現在の車線から逸れていることを表示する。この場合、表示部200、音声部210および/または振動部220は、車両20の運転者に車両20の進行方向を変更するように警告する。これにより、例えば高速道路で運転者が疲れて車線から逸脱し、事故を起こす危険性を回避でき、車両20の安全性を向上させることができる。   In addition, the object distribution image generated by the image processor 140 displays roadside structures such as buildings, trees, and plantations, other cars, light vehicles such as bicycles, pedestrians, road signs, and shoulders. Yes. Therefore, the collision determination unit 310 may determine whether or not the own vehicle 20 “collides” with such road markings and road shoulders. When the collision determination unit 310 determines that the vehicle 20 collides with a road surface sign or a road shoulder, the collision determination unit 310 displays that the vehicle 20 has deviated from the current lane. In this case, the display unit 200, the sound unit 210, and / or the vibration unit 220 warn the driver of the vehicle 20 to change the traveling direction of the vehicle 20. As a result, for example, the risk of a driver getting tired and deviating from the lane on an expressway and causing an accident can be avoided, and the safety of the vehicle 20 can be improved.

衝突防止装置10にはさらに、車両20の速度を検出する速度検出部150が設けられている。衝突判断部310は、速度検出部150が検出した車両20の速度に基づき、安全距離をリアルタイムに計算でき、より有効に衝突を防止できる。   The collision prevention apparatus 10 is further provided with a speed detection unit 150 that detects the speed of the vehicle 20. The collision determination unit 310 can calculate the safety distance in real time based on the speed of the vehicle 20 detected by the speed detection unit 150, and can more effectively prevent the collision.

衝突防止装置10において、車両20の走行速度に対応する安全距離の情報を、例えばROM 230などの記録媒体に予め保存してもよい。衝突判断部310は、速度検出部150の検出した車両20の速度から数式を用いて安全距離をリアルタイムに計算してもよい。   In the collision prevention apparatus 10, information on the safety distance corresponding to the traveling speed of the vehicle 20 may be stored in advance in a recording medium such as the ROM 230, for example. The collision determination unit 310 may calculate the safety distance in real time from the speed of the vehicle 20 detected by the speed detection unit 150 using a mathematical formula.

また、衝突防止装置10において、衝突判断部310が衝突し得ると判断すると、制御部100の制御の下に車両制御部400が車両20の操縦駆動系を制御して、車両20の制動、加速および/または操舵、つまりブレーキ、アクセルおよびハンドリングなどを行う。こうして、衝突判断部310が画像処理部140で生成された物体分布画像から車両20の前方障害物との衝突の可能性を判断した場合、車両制御部400により車両20と前方車両と間に所定の安全距離を保つように、車両20を制動することができる。   Further, in the collision prevention device 10, when the collision determination unit 310 determines that the vehicle can collide, the vehicle control unit 400 controls the steering drive system of the vehicle 20 under the control of the control unit 100 to brake and accelerate the vehicle 20. And / or steering, i.e. braking, accelerator and handling. Thus, when the collision determination unit 310 determines the possibility of a collision with an obstacle ahead of the vehicle 20 from the object distribution image generated by the image processing unit 140, the vehicle control unit 400 determines a predetermined distance between the vehicle 20 and the preceding vehicle. The vehicle 20 can be braked so as to maintain a safe distance.

一方、車両20が車線からずれると、車両制御部400により車両20の操舵を行い、車両20の車線からの逸脱を防止できる。勿論、車両20の運転者が意図的に車線を変更する場合もある。そのときは、運転者が少し強く車両制御部400による動作に抵抗するように操作すると、装置の操作検出部(図示せず)がこの操作を検出し、これによって車両制御部400の制御は即座に解除され、運転者による車両20の制御を許容することになる。   On the other hand, when the vehicle 20 deviates from the lane, the vehicle control unit 400 steers the vehicle 20 and prevents the vehicle 20 from departing from the lane. Of course, the driver of the vehicle 20 may intentionally change the lane. At that time, when the driver operates a little strongly to resist the operation by the vehicle control unit 400, the operation detection unit (not shown) of the device detects this operation, and thereby the control of the vehicle control unit 400 is immediately performed. Thus, the control of the vehicle 20 by the driver is permitted.

さらに、車両20の撮像部120は高速撮像を行うことが望ましい。撮像部120を高速に撮像するように構成すれば、各画像フレームの露光時間が短くなるので、車両20の高速走行時の振動による各画像フレームのボケを抑制し、したがって画像処理部140は、撮像された画像から物体を確実に認識できる。また、撮像部120で高速撮像を行うことにより、車両20の走行方向において長い距離の範囲内で精密に物体を認識でき、また物体分布画像の更新速度も速くなる。これにより、表示部200に表示される物体分布画像の実時間性がさらに向上する。   Furthermore, it is desirable that the imaging unit 120 of the vehicle 20 performs high-speed imaging. If the imaging unit 120 is configured to capture images at high speed, the exposure time of each image frame is shortened, so blurring of each image frame due to vibration during high speed traveling of the vehicle 20 is suppressed, and thus the image processing unit 140 is An object can be reliably recognized from the captured image. In addition, by performing high-speed imaging with the imaging unit 120, an object can be accurately recognized within a long distance in the traveling direction of the vehicle 20, and the update speed of the object distribution image is increased. Thereby, the real time property of the object distribution image displayed on the display unit 200 is further improved.

上述の実施形態は、撮像部120が1回のフォーカシングスイープに5枚の画像フレームを撮像し、最長フォーカシング距離は50mであり、最短フォーカシング距離は10mであり、その間の各フォーカシング距離のステップ幅は10mであった。これは一例にすぎず、例えば、車両20前方にあるすべての物体の認識を可能とするように、連続撮像した2枚の画像フレーム間のフォーカシング距離のステップ幅を短くすれば、物体分布画像における各物体の認識精度がそれだけ高くなり、したがって小さな物体や、走行方向にほぼ垂直な方向において隣接する物体や人体も認識して表示することができる。これにより、画像処理部140において各画像フレームを処理する負荷は増加する。しかし、このような物体を認識する認識精度を選択可能に設定し、使用者は、状況に応じて、必要な精度を保ちながら画像処理部140の負荷を低減するような、最適なフォーカシング距離のステップ幅を決めるように構成してもよい。連続して撮像される2枚の画像フレームのフォーカシング距離のステップ幅は、2m以下であることが好ましく、1m以下であることがより好ましい。   In the above-described embodiment, the imaging unit 120 captures five image frames in one focusing sweep, the longest focusing distance is 50 m, the shortest focusing distance is 10 m, and the step width of each focusing distance therebetween is It was 10m. This is only an example. For example, if the step distance of the focusing distance between two consecutively captured image frames is shortened so that all objects in front of the vehicle 20 can be recognized, The recognition accuracy of each object is increased accordingly, so that it is possible to recognize and display small objects and objects or human bodies that are adjacent in a direction substantially perpendicular to the traveling direction. Thereby, the load of processing each image frame in the image processing unit 140 increases. However, the recognition accuracy for recognizing such an object is set to be selectable, and the user can select an optimum focusing distance that reduces the load on the image processing unit 140 while maintaining the required accuracy depending on the situation. The step width may be determined. The step width of the focusing distance between two image frames that are continuously captured is preferably 2 m or less, and more preferably 1 m or less.

一方、最も長いフォーカシング距離と最も短いフォーカシング距離は、それぞれ、上述した50mと10m以外の値に設定してもよい。車両20の安全性を向上させるため、最も長いフォーカシング距離を50m以上に、最も短いフォーカシング距離を5m以下にすることが望ましい。さらに、速度検出部150の検出した車両20の走行速度に応じて最長フォーカシング距離が増大するように構成してもよい。その場合、最短フォーカシング距離も対応して増大させてもよい。こうして、市街地走行や高速道路走行に適応的に対応することができる。   On the other hand, the longest focusing distance and the shortest focusing distance may be set to values other than the above-described 50 m and 10 m, respectively. In order to improve the safety of the vehicle 20, it is desirable that the longest focusing distance is 50 m or longer and the shortest focusing distance is 5 m or shorter. Further, the longest focusing distance may be increased according to the traveling speed of the vehicle 20 detected by the speed detection unit 150. In that case, the shortest focusing distance may also be increased correspondingly. In this way, it is possible to adaptively cope with city driving and highway driving.

また、本実施形態では、撮像部120はフォーカシングスイープを行う度に、画像処理部140は物体分布画像を生成し、これを更新する。衝突防止装置10は実時間性が重要な要素のひとつであるが、これを向上させるために、撮像部120は1秒間に1回以上フォーカシングスイープを行って物体分布画像を更新することが望ましい。さらに、車両20が高速に走行するとき、衝突防止装置10の実時間性を一般道走行時より向上させることが望ましいが、撮像部120は1秒に5回以上のフォーカシングスウィープを行って物体分布画像を更新することが望ましい。そのために、撮像部120は500回/秒の速度で高速撮像することが望ましい。例えば、車両20前方100m〜1mの広い距離範囲内にある物体を認識することができ、また、5回/秒以上の頻度で物体分布画像を更新することができる。このように、物体認識の範囲、精度および実時間性が向上する。   In the present embodiment, every time the imaging unit 120 performs a focusing sweep, the image processing unit 140 generates an object distribution image and updates it. The anti-collision device 10 is one of the important factors in real time. In order to improve this, it is desirable that the imaging unit 120 updates the object distribution image by performing a focusing sweep at least once per second. Furthermore, when the vehicle 20 travels at a high speed, it is desirable to improve the real-time property of the collision prevention device 10 as compared to when traveling on a general road. However, the imaging unit 120 performs focusing sweep five times or more per second to distribute the object. It is desirable to update the image. Therefore, it is desirable for the imaging unit 120 to perform high-speed imaging at a speed of 500 times / second. For example, an object within a wide distance range of 100 m to 1 m ahead of the vehicle 20 can be recognized, and the object distribution image can be updated at a frequency of 5 times / second or more. In this way, the range, accuracy and real time performance of object recognition are improved.

上述の実施形態では、撮像部120は車両20の前部に1台設けられていた。しかし、本発明はこれに限定されない。例えば、車両20の後部にも同様の撮像部を設けてもよく、これにより、車両20の運転者は車両後方の物体分布および車両状況を把握することができる。車両進行中、後方から他の車両が所定の安全距離以下に接近すると、表示部200、音声部210または振動部220により自車両20の運転者にこれを知らせ、運転者に対応するように促すことができる。これによってさらに安全に、後方からの車両の追尾事故を回避することが可能となる。また、車両制御部400は、後方からの車両に至近距離で追尾されないように、車両20を加速するように構成してもよい。   In the embodiment described above, one imaging unit 120 is provided at the front portion of the vehicle 20. However, the present invention is not limited to this. For example, a similar imaging unit may be provided at the rear part of the vehicle 20, whereby the driver of the vehicle 20 can grasp the object distribution and the vehicle situation behind the vehicle. When another vehicle approaches from below the predetermined safety distance while the vehicle is traveling, the display unit 200, the voice unit 210 or the vibration unit 220 informs the driver of the host vehicle 20 and prompts the driver to respond. be able to. This makes it possible to more safely avoid a vehicle tracking accident from behind. Further, the vehicle control unit 400 may be configured to accelerate the vehicle 20 so that the vehicle is not tracked at a close distance from the vehicle from the rear.

さらに、車両20の側部および/または後部の複数の箇所に、複数の撮像部を設けてもよい。これにより、車両20の横方向および/または後方の物体を認識または検出し、車両を道路の側方、駐車場または車庫に駐車する時、運転者は、車両20の周囲にある路肩や壁などの障害物、および駐車標識の位置を把握でき、駐車の際の衝突事故を回避することができる。また、車両制御部400で車両20を前向きまたは後向き移動、操舵、および加速もしくはブレーキ制御をすることにより、運転者の操作なくして、または最少の操作で、駐車できるように構成してもよい。   Furthermore, a plurality of imaging units may be provided at a plurality of locations on the side and / or rear of the vehicle 20. As a result, when the vehicle 20 is recognized or detected in the lateral direction and / or behind the vehicle 20 and the vehicle is parked on the side of the road, in a parking lot or a garage, The position of obstacles and parking signs can be grasped, and collision accidents during parking can be avoided. Further, the vehicle control unit 400 may be configured such that the vehicle 20 can be parked without any driver operation or with a minimum operation by performing forward or backward movement, steering, acceleration, or brake control.

車両20に複数の撮像部を配置し、各撮像部が異なる方向に向いて撮像することにより、画像処理部140により、車両20周囲のより広い範囲における物体や人体の分布を示す画像を生成することができ、使用上の便利性が向上する。   By arranging a plurality of imaging units on the vehicle 20 and imaging each of the imaging units in different directions, the image processing unit 140 generates an image showing the distribution of objects and human bodies in a wider range around the vehicle 20 It is possible to improve the convenience of use.

また、画像処理部140は、生成される物体分布画像において本車両20との距離を示す格子線を付加的に可視表示するように構成してもよい。これにより、車両20の運転者は、表示部200に表示される物体分布画像より、自車両から認識された物体までの距離を知ることができ、車進行中の安全性をさらに確保できる。   The image processing unit 140 may be configured to additionally visually display a grid line indicating the distance from the vehicle 20 in the generated object distribution image. As a result, the driver of the vehicle 20 can know the distance from the own vehicle to the recognized object from the object distribution image displayed on the display unit 200, and can further ensure safety while the vehicle is traveling.

上述の実施形態は、撮像部120がCCDセンサ122を備えていた。しかし、本発明はこのような撮像デバイスの特定の種類に限れない。撮像素子として、相補型金属酸化膜半導体(CMOS)センサまたは他の光学センサを利用してもよい。また、表示部200は、物体の色を表示しない場合、単色の撮像素子を使用してもよい。これは衝突防止装置120のコストの低減に寄与し、画像処理部140における処理速度を向上できる。   In the above-described embodiment, the imaging unit 120 includes the CCD sensor 122. However, the present invention is not limited to a specific type of such an imaging device. A complementary metal oxide semiconductor (CMOS) sensor or other optical sensor may be used as the image sensor. Further, when the display unit 200 does not display the color of the object, a monochromatic image sensor may be used. This contributes to a reduction in the cost of the collision prevention device 120, and the processing speed in the image processing unit 140 can be improved.

また、夜間やトンネル内などの暗い環境での利用に対応するため、撮像素子として赤外線センサを用いてもよい。これにより、例えば、夜でも撮像部120が車両20の周囲の照明の届かない領域にある物体や人体を撮像でき、画像処理部140が画像フレームから物体や人体を判別することができ、衝突防止装置10の実用性がさらに向上する。   Further, an infrared sensor may be used as the imaging element in order to cope with use in a dark environment such as at night or in a tunnel. Thereby, for example, the imaging unit 120 can image an object or a human body in an area where the illumination around the vehicle 20 does not reach even at night, and the image processing unit 140 can discriminate the object or human body from the image frame, thereby preventing collision. The practicality of the device 10 is further improved.

上述の実施形態は、画像処理部140が図6に示すような平面物体分布画像を生成するものであった。しかし、本発明はこれに限れない。画像処理部140が3次元(立体)物体分布画像を生成するように構成してもよい。   In the above-described embodiment, the image processing unit 140 generates a planar object distribution image as shown in FIG. However, the present invention is not limited to this. The image processing unit 140 may be configured to generate a three-dimensional (three-dimensional) object distribution image.

図7は、画像処理部140が3次元の物体分布画像を生成する方法を説明する模式図である。同図には、図4A〜図4Eに示した画像FRAME1からFRAME5がそれぞれのフォーカシング距離に応じた位置に配置され、撮像部120の撮像角度αに応じたフレームサイズで立体的に見えるよう表示された状態が示されている。   FIG. 7 is a schematic diagram illustrating a method by which the image processing unit 140 generates a three-dimensional object distribution image. In the same figure, the images FRAME1 to FRAME5 shown in FIGS. 4A to 4E are arranged at positions corresponding to the respective focusing distances, and are displayed so as to appear stereoscopically with a frame size corresponding to the imaging angle α of the imaging unit 120. The state is shown.

図5に示されるステップS503と同じように、画像処理部140は、画像FRAME1からFRAME5において、鮮明な像が結像された物体を認識する。   As in step S503 shown in FIG. 5, the image processing unit 140 recognizes an object on which a clear image is formed in the images FRAME1 to FRAME5.

また、図5に示されるステップS504のように、画像処理部140は、画像FRAME1からFRAME5の撮像時のフォーカシング距離に基づいて、これらの認識された物体の位置を計算し、それらの物体の位置分布を可視的に表わす立体画像を生成する。具体的には、認識された物体の画像FRAME1からFRAME5のそれぞれにおける位置は、画像FRAME1からFRAME5が撮られた時のそれぞれの角度位置により求まる。そこで画像処理部140は、立体空間において、車両20の前方におけるそれぞれのフォーカシング距離の位置に、これらの認識された物体の図形を表示する立体図形127を生成する。こうして、3次元(立体)物体分布画像127が生成される。   Further, as in step S504 shown in FIG. 5, the image processing unit 140 calculates the positions of these recognized objects based on the focusing distances at the time of imaging of the images FRAME1 to FRAME5, and the positions of these objects. A stereoscopic image that visually represents the distribution is generated. Specifically, the positions of the recognized objects in the images FRAME1 to FRAME5 are determined by the respective angular positions when the images FRAME1 to FRAME5 are taken. Therefore, the image processing unit 140 generates a three-dimensional figure 127 that displays the figures of these recognized objects at the respective focusing distance positions in front of the vehicle 20 in the three-dimensional space. In this way, a three-dimensional (three-dimensional) object distribution image 127 is generated.

表示部200は、3次元の物体分布画像を表示するとき、車両20の運転者の操作により物体分布画像127を表示する視角を変更することができる。例えば、鳥瞰図の視角で表示するように視角を変換することができる。これにより、車両20の運転者は直接または直感的に、車両20前方の各物体の正確な位置を把握することができる。また、立体物体分布画像127を表示する視角を運転者が極限値に設定すれば、図6を参照して前述した実施形態と同様に、平面の物体分布画像を表示することもできる。   When displaying the three-dimensional object distribution image, the display unit 200 can change the viewing angle for displaying the object distribution image 127 by the operation of the driver of the vehicle 20. For example, the viewing angle can be converted to display at the viewing angle of the bird's eye view. Accordingly, the driver of the vehicle 20 can directly or intuitively grasp the exact position of each object in front of the vehicle 20. Further, if the driver sets the viewing angle for displaying the three-dimensional object distribution image 127 to the limit value, a planar object distribution image can be displayed as in the embodiment described above with reference to FIG.

上述の実施形態は、撮像部120の撮像角度αが固定、すなわちレンズ121が単焦点レンズであった。しかし、撮像角度αは可変、すなわちレンズ121はズームレンズであってもよい。ズームレンズはズーミング機構によって駆動され、ズーミング機構は、フォーカススイープにおいて、例えば、フォーカシング距離を短くするときは焦点距離を短くして撮像角度αを大きくし、これにより近くに位置する物体をできるだけ多く認識することができる。一方、フォーカシング距離を長くする場合は、焦点距離を長くして撮影角度を小さくし、これにより遠くにある物体は画像フレームにおいてサイズが大きく描写される。こうして、物体や人体の認識率がさらに向上する。   In the above-described embodiment, the imaging angle α of the imaging unit 120 is fixed, that is, the lens 121 is a single focus lens. However, the imaging angle α is variable, that is, the lens 121 may be a zoom lens. The zoom lens is driven by a zooming mechanism, which, for example, reduces the focal distance and increases the imaging angle α in the focus sweep, for example when shortening the focusing distance, thereby recognizing as many objects as possible nearby. can do. On the other hand, when the focusing distance is lengthened, the focal angle is lengthened and the photographing angle is decreased, so that a distant object is depicted in a large size in the image frame. In this way, the recognition rate of objects and human bodies is further improved.

また、上述の実施形態では、車両20は移動体の一例であったが、本発明に係る移動体衝突防止装置は、陸上のみならず、移動可能な、とくに自律走行可能な装置または生産や採掘現場、構内で使用される運搬機構に配置してもよい。   Further, in the above-described embodiment, the vehicle 20 is an example of a moving body. However, the moving body collision prevention apparatus according to the present invention is not limited to the land, but can be moved, in particular, can travel autonomously, or can be produced or mined. You may arrange | position to the conveyance mechanism used on the spot and a campus.

以上、本発明の最良の実施形態を説明したが、本発明はこれに限るものではない。衝突防止装置10における一部の構成要素により各部分の機能および効果を得ることも可能である。   The best embodiment of the present invention has been described above, but the present invention is not limited to this. It is also possible to obtain the functions and effects of each part with some components in the collision preventing apparatus 10.

本発明を具体的な実施形態に則して詳細に説明したが、形式や細部についての種々の置換、変形、変更などが特許請求の範囲の記載により規定されるような本発明の精神および範囲から逸脱することなく行われることが可能であることは、当業者に明らかである。例えば、衝突防止装置10における一部の構成を利用し、各構成の各々の効果を得ることができる。したがって、本発明の範囲は、前述の実施形態および添付図面の記載に限定されるものでなく、特許請求の範囲の記載およびこれと均等なものに基づいて定められるべきである。   Although the present invention has been described in detail with reference to specific embodiments, the spirit and scope of the present invention such that various substitutions, modifications, and changes in form and detail are defined by the appended claims. It will be apparent to those skilled in the art that this can be done without departing from the above. For example, a part of the configuration of the collision prevention apparatus 10 can be used to obtain the effects of each configuration. Accordingly, the scope of the present invention should not be limited to the description of the above-described embodiment and the accompanying drawings, but should be determined based on the description of the claims and equivalents thereof.

本発明による画像処理装置は、生産現場における各設備の位置識別および監視制御、スポーツ試合の生中継における視角の切替え、およびインタラクティブな娯楽システムや移動体衝突防止装置に適用することができる。   The image processing apparatus according to the present invention can be applied to position identification and monitoring control of each facility at a production site, switching of a viewing angle in a live broadcast of a sports game, and an interactive entertainment system and a mobile object collision prevention apparatus.

α 撮像部の撮像角度
10 移動体衝突防止装置
20 車両である移動体
100 制御部
120 撮像部
121 レンズ
122 CCDセンサ
123 合焦機構
140 画像処理部
150 速度検出部
200 表示部
210 音声部
220 振動部
230 ROM
310 衝突判断部
30a 路面標識
30b 路肩
30c 建物
30d 自動車
30e 木
30f 自転車
400 車両制御部
α Imaging angle of the imaging unit
10 Moving object collision prevention device
20 Vehicles that are vehicles
100 Control unit
120 Imaging unit
121 lens
122 CCD sensor
123 Focusing mechanism
140 Image processor
150 Speed detector
200 display
210 Voice
220 Vibration part
230 ROM
310 Collision determination unit
30a road marking
30b shoulder
30c building
30d car
30e wood
30f bicycle
400 Vehicle control unit

Claims (14)

撮像手段と、
前記撮像手段が撮像した画像を処理する画像処理手段とを備え、
前記撮像手段は、撮像レンズと、該撮像レンズを駆動してフォーカシング距離を変更する合焦機構と、撮像素子とを有し、
該合焦機構は、前記撮像レンズを駆動して、該撮像レンズの光軸方向における異なる位置の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、
前記撮像手段は、前記フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれ画像を撮像し、
前記画像処理手段は、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成することを特徴とする画像処理装置。
Imaging means;
Image processing means for processing an image picked up by the image pickup means,
The imaging means includes an imaging lens, a focusing mechanism that drives the imaging lens to change a focusing distance, and an imaging element,
The focusing mechanism drives the imaging lens to perform a focus sweep that sequentially changes a focusing distance so that an object at a different position in the optical axis direction of the imaging lens is clearly imaged on the imaging element;
The imaging means captures images according to a plurality of different focusing distances in the focus sweep,
The image processing unit recognizes an object that is clearly formed in each of the plurality of images from the plurality of captured images, and corresponds to a focusing distance at the time of capturing each of the plurality of images. And generating an object distribution image for displaying the position of the recognized object.
請求項1に記載の装置において、前記フォーカススイープにおいて、フォーカシング距離は1m以下のステップ幅で変化することを特徴とする画像処理装置。   2. The image processing apparatus according to claim 1, wherein the focusing distance changes with a step width of 1 m or less in the focus sweep. 請求項1に記載の装置において、前記撮像手段は500画像/秒以上の頻度で撮像することを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging unit images at a frequency of 500 images / second or more. 請求項1ないし3のいずれかに記載の装置において、
前記撮像手段は前記フォーカススイープを繰り返して複数回行い、
前記画像処理手段は、該複数回のフォーカススイープに対応して前記物体分布画像を複数枚生成することを特徴とする画像処理装置。
The device according to any one of claims 1 to 3,
The imaging means repeats the focus sweep a plurality of times,
The image processing device generates the plurality of object distribution images corresponding to the plurality of focus sweeps.
請求項4に記載の装置において、前記撮像手段は前記フォーカススイープを毎秒5回以上行うことを特徴とする画像処理装置。   5. The image processing apparatus according to claim 4, wherein the imaging unit performs the focus sweep five times or more per second. 請求項1に記載の装置において、前記撮像素子は電荷結合デバイス(CCD)センサおよび相補型金属酸化膜半導体(CMOS)センサのうち少なくとも一つを含むことを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging element includes at least one of a charge coupled device (CCD) sensor and a complementary metal oxide semiconductor (CMOS) sensor. 請求項1に記載の装置において、前記撮像素子は赤外線撮像素子を含むことを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the image sensor includes an infrared image sensor. 請求項1に記載の装置において、前記撮像レンズはズームレンズを含み、
前記撮像手段は、該ズームレンズを駆動しその焦点距離を変更するズーミング機構を備え、
該ズーミング機構は、前記フォーカシング距離が所定値より長くなるとき、ズームレンズを駆動してその焦点距離を長くし、前記フォーカシング距離が所定値より短くなるとき、前記ズームレンズを駆動してその焦点距離を短くすることを特徴とする画像処理装置。
The apparatus according to claim 1, wherein the imaging lens includes a zoom lens;
The imaging means includes a zooming mechanism that drives the zoom lens and changes its focal length.
When the focusing distance becomes longer than a predetermined value, the zooming mechanism drives the zoom lens to increase the focal length, and when the focusing distance becomes shorter than the predetermined value, the zooming mechanism drives the zoom lens to increase the focal length. An image processing apparatus characterized by shortening the length.
撮像レンズ、該撮像レンズを駆動しフォーカシング距離を変更する合焦機構、および撮像素子を有する撮像手段と、該撮像手段が撮像した画像を処理する画像処理手段とを備える画像処理装置における画像処理方法であって、
前記撮像手段において、前記合焦機構は、前記撮像レンズを駆動して該撮像レンズの光軸方向における異なる位置の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、該フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれの画像を撮像し、
前記画像処理手段において、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成することを特徴とする画像処理方法。
Image processing method in an image processing apparatus comprising: an imaging lens; a focusing mechanism that drives the imaging lens to change a focusing distance; an imaging unit having an imaging element; and an image processing unit that processes an image captured by the imaging unit Because
In the imaging unit, the focusing mechanism sequentially changes a focusing distance so as to drive the imaging lens to clearly form an object at a different position in the optical axis direction of the imaging lens on the imaging element. And taking each image according to a plurality of different focusing distances in the focus sweep,
The image processing means recognizes an object that is clearly formed in each of the plurality of images from the plurality of captured images, and corresponds to a focusing distance at the time of capturing each of the plurality of images. And generating an object distribution image for displaying the position of the recognized object.
移動体に設けられる移動体衝突防止装置であって、
該移動体の周囲を撮像する撮像手段と、
該撮像手段が撮像した画像を処理する画像処理手段と、
衝突判定手段とを備え、
前記撮像手段は、撮像レンズと、該撮像レンズを駆動してフォーカシング距離を変更する合焦機構と、撮像素子とを有し、
該合焦機構は、前記撮像レンズを駆動して、前記移動体から離れている複数の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、
前記撮像手段は、該フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれ画像を撮像し、
前記画像処理手段は、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成し、
前記衝突判定手段は、該物体分布画像に基づいて前記移動体と前記認識された物体とが衝突するか否かを判定することを特徴とする移動体衝突防止装置。
A moving body collision prevention device provided on a moving body,
Imaging means for imaging the periphery of the moving body;
Image processing means for processing an image picked up by the image pickup means;
A collision determination means,
The imaging means includes an imaging lens, a focusing mechanism that drives the imaging lens to change a focusing distance, and an imaging element,
The focusing mechanism drives the imaging lens to perform a focus sweep that sequentially changes a focusing distance so that a plurality of objects separated from the moving body are clearly imaged on the imaging element;
The imaging means captures images according to a plurality of different focusing distances in the focus sweep,
The image processing unit recognizes an object that is clearly formed in each of the plurality of images from the plurality of captured images, and corresponds to a focusing distance at the time of capturing each of the plurality of images. And generating an object distribution image displaying the position of the recognized object,
The collision detection apparatus according to claim 1, wherein the collision determination unit determines whether or not the mobile object and the recognized object collide based on the object distribution image.
請求項10に記載の装置において、該装置は、前記物体分布画像を表示する表示手段を有し、
前記衝突判定手段は、前記移動体と前記認識された物体とが衝突すると判定すると、前記表示手段は、該物体を異なる色で表示することを特徴とする移動体衝突防止装置。
The apparatus according to claim 10, further comprising display means for displaying the object distribution image.
When the collision determination unit determines that the moving body and the recognized object collide, the display unit displays the object in a different color.
請求項10に記載の装置において、該装置は、前記移動体の操縦者に通知する通知手段を備え、
前記移動体と前記認識された物体とが衝突すると前記衝突判定手段が判定すると、前記通知手段は前記操縦者へ警告メッセージを発生することを特徴とする移動体衝突防止装置。
The apparatus according to claim 10, further comprising notification means for notifying a pilot of the mobile body.
The mobile body collision prevention apparatus according to claim 1, wherein when the collision determination unit determines that the mobile body and the recognized object collide, the notification unit generates a warning message to the operator.
移動体に設けられる移動体衝突防止装置であって、
該移動体の周囲を撮像する撮像手段と、
該撮像手段が撮像した画像を処理する画像処理手段と、
表示手段とを備え、
前記撮像手段は、撮像レンズと、該撮像レンズを駆動しフォーカシング距離を変更する合焦機構と、撮像素子とを有し、
該合焦機構は、前記撮像レンズを駆動して、前記移動体から離れている複数の物体を前記撮像素子に鮮明に結像させるように順次フォーカシング距離を変更するフォーカススイープを行い、
前記撮像手段は、該フォーカススイープにおいて複数の異なるフォーカシング距離に応じてそれぞれの画像を撮像し、
前記画像処理手段は、前記撮像された複数枚の画像から、該複数枚の画像のそれぞれにおいて鮮明に結像された物体を認識し、該複数枚の画像のそれぞれの撮像時のフォーカシング距離に対応して前記認識された物体の位置を表示する物体分布画像を生成し、
前記表示手段は、該記物体分布画像を表示することを特徴とする移動体衝突防止装置。
A moving body collision prevention device provided on a moving body,
Imaging means for imaging the periphery of the moving body;
Image processing means for processing an image picked up by the image pickup means;
Display means,
The imaging means includes an imaging lens, a focusing mechanism that drives the imaging lens to change a focusing distance, and an imaging device,
The focusing mechanism drives the imaging lens to perform a focus sweep that sequentially changes a focusing distance so that a plurality of objects separated from the moving body are clearly imaged on the imaging element;
The imaging means captures each image according to a plurality of different focusing distances in the focus sweep,
The image processing unit recognizes an object that is clearly formed in each of the plurality of images from the plurality of captured images, and corresponds to a focusing distance at the time of capturing each of the plurality of images. And generating an object distribution image displaying the position of the recognized object,
The moving object collision preventing apparatus, wherein the display means displays the recorded object distribution image.
請求項13に記載の装置において、前記表示手段は、前記物体分布画像を3次元画像で表示することを特徴とする移動体衝突防止装置。
14. The mobile object collision preventing apparatus according to claim 13, wherein the display unit displays the object distribution image as a three-dimensional image.
JP2012060124A 2011-03-18 2012-03-16 Image processing apparatus and method, and moving object collision prevention apparatus Active JP5536125B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110065887.9A CN102685382B (en) 2011-03-18 2011-03-18 Image processing apparatus and method and moving body collision prevention device
CN201110065887.9 2011-03-18

Publications (2)

Publication Number Publication Date
JP2012198207A true JP2012198207A (en) 2012-10-18
JP5536125B2 JP5536125B2 (en) 2014-07-02

Family

ID=45977084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012060124A Active JP5536125B2 (en) 2011-03-18 2012-03-16 Image processing apparatus and method, and moving object collision prevention apparatus

Country Status (5)

Country Link
US (1) US9858488B2 (en)
EP (1) EP2500890B1 (en)
JP (1) JP5536125B2 (en)
CN (1) CN102685382B (en)
ES (1) ES2886522T3 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015031978A (en) * 2013-07-31 2015-02-16 日産自動車株式会社 Information providing device and method
CN105185160A (en) * 2015-10-09 2015-12-23 卢庆港 Pavement detection system and detection method
JP2017215525A (en) * 2016-06-01 2017-12-07 キヤノン株式会社 Imaging device and method for controlling the same, program, and storage medium

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102923082A (en) * 2012-10-31 2013-02-13 东莞康特尔电子有限公司 Vehicle driving intelligent protection early warning system and control method thereof
CN103101497A (en) * 2013-01-25 2013-05-15 深圳市保千里电子有限公司 Automobile picture pick-up system and data process method of synchronous change of visual angle of automobile picture pick-up system and automobile speed
CN103072537B (en) * 2013-02-05 2014-03-26 湖南大学 Automotive collision avoidance safety protecting method based on infrared image processing
JP2014191688A (en) * 2013-03-28 2014-10-06 Sony Corp Information processor, information processing method and storage medium
CN104349197B (en) * 2013-08-09 2019-07-26 联想(北京)有限公司 A kind of data processing method and device
DE102013222304A1 (en) * 2013-11-04 2015-05-07 Conti Temic Microelectronic Gmbh Method for determining object distances with a camera installed in a motor vehicle
KR20150110283A (en) * 2014-03-21 2015-10-02 삼성전자주식회사 Method and apparatus for preventing a collision between objects
US10130873B2 (en) 2014-03-21 2018-11-20 Samsung Electronics Co., Ltd. Method and apparatus for preventing a collision between subjects
CN105025219A (en) * 2014-04-30 2015-11-04 齐发光电股份有限公司 Image acquisition method
CN105270258A (en) * 2014-06-12 2016-01-27 陕西重型汽车有限公司 Automotive steering safety assistance system
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
US9676326B2 (en) * 2015-09-25 2017-06-13 Ford Global Technologies, Llc Drive history parking barrier alert
KR101822895B1 (en) 2016-04-07 2018-01-29 엘지전자 주식회사 Driver assistance apparatus and Vehicle
CN106080481A (en) * 2016-07-22 2016-11-09 池州学院 A kind of automobile omnibearing anti-collision early warning system
US10403141B2 (en) * 2016-08-19 2019-09-03 Sony Corporation System and method for processing traffic sound data to provide driver assistance
US11528413B2 (en) 2016-08-22 2022-12-13 Sony Corporation Image processing apparatus and image processing method to generate and display an image based on a vehicle movement
CN106571046B (en) * 2016-11-11 2021-07-16 上海市政工程设计研究总院(集团)有限公司 Vehicle-road cooperative driving assisting method based on road surface grid system
CN106683408A (en) * 2017-02-14 2017-05-17 北京小米移动软件有限公司 Vehicle monitoring method and device
JP6582153B2 (en) * 2017-03-15 2019-09-25 富士フイルム株式会社 Imaging apparatus, imaging method, and imaging program
JP6579144B2 (en) * 2017-03-28 2019-09-25 株式会社Soken Obstacle detection device
US20190039515A1 (en) * 2017-08-01 2019-02-07 Nanning Fugui Precision Industrial Co., Ltd. System and method for warning against vehicular collisions when driving
CN107672551B (en) * 2017-09-20 2020-07-17 杭州奥腾电子股份有限公司 Front vehicle anti-collision early warning system and control method thereof
US10678257B2 (en) * 2017-09-28 2020-06-09 Nec Corporation Generating occlusion-aware bird eye view representations of complex road scenes
DE102018209388A1 (en) * 2018-06-13 2019-12-19 Robert Bosch Gmbh Detection of driving-relevant situations at a greater distance
CN109532670B (en) * 2018-11-28 2022-02-22 广州市网拓信息技术有限公司 Vehicle-mounted safe distance judgment device and software use principle thereof
DE102018221241A1 (en) 2018-12-07 2020-06-10 Volkswagen Aktiengesellschaft Driver assistance system for a motor vehicle, motor vehicle and method for operating a motor vehicle
CN112380935B (en) * 2020-11-03 2023-05-26 深圳技术大学 Man-machine collaborative sensing method and system for automatic driving
JP2022114764A (en) * 2021-01-27 2022-08-08 キヤノン株式会社 Optical system, image capturing device, in-vehicle system, and mobile device
CN112995507A (en) * 2021-02-08 2021-06-18 北京蜂巢世纪科技有限公司 Method and device for prompting object position
CN114071020A (en) * 2021-12-28 2022-02-18 厦门四信通信科技有限公司 Automatic zooming method and device for unmanned vehicle
US20230322248A1 (en) * 2022-04-06 2023-10-12 Gm Global Technology Operation Llc Collision warning system for a motor vehicle having an augmented reality head up display

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580143A (en) * 1991-09-19 1993-04-02 Fujitsu Ltd Rader signal display device
JPH10143245A (en) * 1996-11-07 1998-05-29 Komatsu Ltd Obstacle collision preventing device for mobile object
JP2004094825A (en) * 2002-09-03 2004-03-25 Toyota Motor Corp Three-dimensional object recognition device
JP2004348645A (en) * 2003-05-26 2004-12-09 Honda Motor Co Ltd Infrared image recognition apparatus and alarm equipment using the same
JP2007172541A (en) * 2005-12-26 2007-07-05 Toyota Motor Corp Driving support device
JP2007192730A (en) * 2006-01-20 2007-08-02 Nsk Ltd Multipoint ranging sensor and multipoint ranging technique
JP2008028951A (en) * 2006-07-25 2008-02-07 Canon Inc Imaging apparatus, imaging method, program, and storage medium
JP2008225140A (en) * 2007-03-14 2008-09-25 Fujifilm Corp Lens moving device and digital camera
JP2009008655A (en) * 2007-02-06 2009-01-15 Honeywell Internatl Inc Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicle
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010191793A (en) * 2009-02-19 2010-09-02 Denso It Laboratory Inc Alarm display and alarm display method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2715202B2 (en) 1991-10-09 1998-02-18 新キャタピラー三菱株式会社 Wireless monitoring communication method and apparatus for unmanned self-propelled body
CN1099342A (en) * 1993-08-25 1995-03-01 徐顺庆 Method and device for protecting against collision of driving vehicles
JP3260645B2 (en) 1997-01-31 2002-02-25 エニー株式会社 Navigation system
JPH11120499A (en) 1997-10-09 1999-04-30 Toyo Commun Equip Co Ltd Position display device for navigation
JP2000304856A (en) 1999-04-20 2000-11-02 Mitsubishi Electric Engineering Co Ltd Approach alarm device
JP3642717B2 (en) 2000-05-30 2005-04-27 櫻護謨株式会社 Travel restriction system for automatic traveling machine
JP2003016429A (en) * 2001-06-28 2003-01-17 Honda Motor Co Ltd Vehicle periphery monitor device
US7084910B2 (en) * 2002-02-08 2006-08-01 Hewlett-Packard Development Company, L.P. System and method for using multiple images in a digital image capture device
US7319487B2 (en) * 2002-04-10 2008-01-15 Olympus Optical Co., Ltd. Focusing apparatus, camera and focus position detecting method
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007004020A (en) * 2005-06-27 2007-01-11 Sony Corp Zoom lens and imaging apparatus
US20070035628A1 (en) * 2005-08-12 2007-02-15 Kunihiko Kanai Image-capturing device having multiple optical systems
WO2007102367A1 (en) * 2006-02-28 2007-09-13 Toyota Jidosha Kabushiki Kaisha Object course prediction method, device, program, and automatic driving system
US20100134631A1 (en) * 2006-10-30 2010-06-03 Wesleyan University Apparatus and method for real time image compression for particle tracking
CN100578148C (en) * 2007-05-25 2010-01-06 财团法人车辆研究测试中心 Detection method for vehicle side collision alarming device
US20100259631A1 (en) * 2007-10-26 2010-10-14 Fujifilm Corporation Data compression apparatus, data compression program and image-taking apparatus
CN101458078A (en) * 2007-12-10 2009-06-17 鸿富锦精密工业(深圳)有限公司 Automobile anti-collision system and method
JP2009151124A (en) * 2007-12-20 2009-07-09 Sharp Corp Sensor module, electronic information device, autofocus control method, control program, and readable storage medium
US20110019873A1 (en) * 2008-02-04 2011-01-27 Konica Minolta Holdings, Inc. Periphery monitoring device and periphery monitoring method
US8050468B2 (en) * 2008-03-05 2011-11-01 Honeywell International Inc. Fingerprint acquisition system
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
KR20110020519A (en) * 2009-08-24 2011-03-03 삼성전자주식회사 Digital photographing apparatus, controlling method of the same, and recording medium storing program to implement the method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580143A (en) * 1991-09-19 1993-04-02 Fujitsu Ltd Rader signal display device
JPH10143245A (en) * 1996-11-07 1998-05-29 Komatsu Ltd Obstacle collision preventing device for mobile object
JP2004094825A (en) * 2002-09-03 2004-03-25 Toyota Motor Corp Three-dimensional object recognition device
JP2004348645A (en) * 2003-05-26 2004-12-09 Honda Motor Co Ltd Infrared image recognition apparatus and alarm equipment using the same
JP2007172541A (en) * 2005-12-26 2007-07-05 Toyota Motor Corp Driving support device
JP2007192730A (en) * 2006-01-20 2007-08-02 Nsk Ltd Multipoint ranging sensor and multipoint ranging technique
JP2008028951A (en) * 2006-07-25 2008-02-07 Canon Inc Imaging apparatus, imaging method, program, and storage medium
JP2009008655A (en) * 2007-02-06 2009-01-15 Honeywell Internatl Inc Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicle
JP2008225140A (en) * 2007-03-14 2008-09-25 Fujifilm Corp Lens moving device and digital camera
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010191793A (en) * 2009-02-19 2010-09-02 Denso It Laboratory Inc Alarm display and alarm display method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015031978A (en) * 2013-07-31 2015-02-16 日産自動車株式会社 Information providing device and method
CN105185160A (en) * 2015-10-09 2015-12-23 卢庆港 Pavement detection system and detection method
JP2017215525A (en) * 2016-06-01 2017-12-07 キヤノン株式会社 Imaging device and method for controlling the same, program, and storage medium

Also Published As

Publication number Publication date
US9858488B2 (en) 2018-01-02
EP2500890A3 (en) 2016-12-07
ES2886522T3 (en) 2021-12-20
CN102685382B (en) 2016-01-20
CN102685382A (en) 2012-09-19
US20120236122A1 (en) 2012-09-20
EP2500890A2 (en) 2012-09-19
EP2500890B1 (en) 2021-08-04
JP5536125B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
JP5536125B2 (en) Image processing apparatus and method, and moving object collision prevention apparatus
US10387733B2 (en) Processing apparatus, processing system, and processing method
JP7081875B2 (en) Vehicle navigation based on detected barriers
US10402664B2 (en) Processing apparatus, processing system, processing program, and processing method
KR102052313B1 (en) Device for assisting a driver driving a vehicle or for independently driving a vehicle
US20160327948A1 (en) Misrecognition determination device
IL256524A (en) Improved object detection for an autonomous vehicle
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
JP2019067345A (en) Vehicle control device, vehicle control method, and program
JP2016001170A (en) Processing unit, processing program and processing method
JP2022520544A (en) Vehicle intelligent driving control methods and devices, electronic devices and storage media
JP2008242844A (en) Running support on-vehicle device
JP2015501249A5 (en)
KR20200131832A (en) Information processing devices, mobile devices and methods, and programs
JP2009231938A (en) Surrounding monitoring device for vehicle
WO2018072908A1 (en) Controlling a vehicle for human transport with a surround view camera system
JP6614607B2 (en) Remote control system and method
JP2020109559A (en) Traffic signal recognition method and traffic signal recognition device
JP6830236B2 (en) Image acquisition method, image display system, and computer program
JP7216695B2 (en) Surrounding vehicle monitoring device and surrounding vehicle monitoring method
CN111183466A (en) Method and device for displaying ambient conditions
CN117930220A (en) Obstacle speed detection method, obstacle speed detection device, computer device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

R150 Certificate of patent or registration of utility model

Ref document number: 5536125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250