JP2010204821A - Working machine equipped with periphery monitoring device - Google Patents

Working machine equipped with periphery monitoring device Download PDF

Info

Publication number
JP2010204821A
JP2010204821A JP2009047989A JP2009047989A JP2010204821A JP 2010204821 A JP2010204821 A JP 2010204821A JP 2009047989 A JP2009047989 A JP 2009047989A JP 2009047989 A JP2009047989 A JP 2009047989A JP 2010204821 A JP2010204821 A JP 2010204821A
Authority
JP
Japan
Prior art keywords
image
combined
work machine
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009047989A
Other languages
Japanese (ja)
Other versions
JP4951639B2 (en
Inventor
Chieko Konuma
小沼  知恵子
Hidefumi Ishimoto
英史 石本
Masahiro Kiyohara
將裕 清原
Tatsu Yumiba
竜 弓場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2009047989A priority Critical patent/JP4951639B2/en
Publication of JP2010204821A publication Critical patent/JP2010204821A/en
Application granted granted Critical
Publication of JP4951639B2 publication Critical patent/JP4951639B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate a combined image with no sense of incompatibility by connecting a bird's-eye image having a point of view above a working machine and a camera image from a camera which photographs the periphery at the optimal position. <P>SOLUTION: The working machine is provided with: a bird's-eye image generation part 300 for generating the bird's-eye image having the point of view above the working machine based on camera images from a plurality of cameras 13 mounted on the working machine for photographing the periphery of the working machine; a combination position calculation part 400 for determining the operation of the working machine, and for calculating a combination position in the case of generating the combined image by combining the camera image with the bird's-eye image; a combined image generation part 450 for generating the combined image by combining the camera image with the bird's-eye image at the position calculated by the connecting position calculation part; a combined image composition part 500 for compositing the combined image generated by the combined image generation part; a composite image obstacle detection part 600 for detecting an obstacle from the composite image composited by the combined image composition part; and a display image generation part 900 for performing display by superimposing the obstacle detection information on the composite image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、周囲監視装置を備えた作業機械にかかり、特に、周囲の障害物を監視して、運転者に提示する周囲監視装置を備えた作業機械に関する。   The present invention relates to a work machine including a surrounding monitoring device, and more particularly, to a working machine including a surrounding monitoring device that monitors surrounding obstacles and presents it to a driver.

車両あるいは作業機械が周囲の人あるいは物と接触する事故を防止するため、周囲を監視するカメラを搭載したものが知られている。例えば特許文献1には、複数設置した車外カメラの画像を取り込んで車両上方を視点とした画像を合成処理して表示し、画像合成処理した画像内において、画面内における輝度の変化部分を検出することにより立体物を検出し、検出した立体物をその基部前端部分において車両上方視点画像と接続して立体物を表示することが示されている。   In order to prevent an accident in which a vehicle or a work machine comes into contact with a person or an object in the vicinity, a camera equipped with a camera for monitoring the environment is known. For example, Patent Document 1 captures images of a plurality of external cameras installed, displays an image from the viewpoint of the upper side of the vehicle, performs synthesis processing, and detects a luminance change portion in the screen in the image synthesis processing image. This indicates that a three-dimensional object is detected, and the detected three-dimensional object is connected to the vehicle upper viewpoint image at the base front end portion to display the three-dimensional object.

また、特許文献2には、画面上部の遠景部分と画面下部の近景部分からなり、水平方向に連続するように撮影された複数枚の画像において、遠景部分については従来手法のカメラ画像で位置あわせを行い、近景部分については、幾何変換により、上方視点の画像に変換し、さらに変換後の画像を接続した後に再び通常の視点から見たように幾何変換を行うことによりパノラマ画像を作成することが示されている。   Further, in Patent Document 2, a plurality of images, which are composed of a distant view portion at the top of the screen and a close view portion at the bottom of the screen, and are photographed so as to be continuous in the horizontal direction, the distant view portion is aligned with a conventional camera image. For the foreground part, convert it to an upper viewpoint image by geometric conversion, and then connect the converted image and then perform geometric conversion again as seen from the normal viewpoint to create a panoramic image It is shown.

特開2007−233876号公報JP 2007-233876 A 特開2000−312287号公報JP 2000-312287 A

特許文献1に開示された装置では、画面内における輝度の変化部分の検出により立体物を検出するため、車両あるいは作業機械周囲を撮影した屋外画像では、影、日照変化、木々の揺れ等の外乱が多発する。このため、これらを障害物と誤検知する場合がある。また、背景画像と立体物が類似している場合は、検知できない場合が発生する。   In the apparatus disclosed in Patent Document 1, since a three-dimensional object is detected by detecting a luminance change portion in the screen, disturbances such as shadows, changes in sunlight, and shaking of trees are detected in an outdoor image taken around the vehicle or work machine. Frequently occur. For this reason, these may be erroneously detected as obstacles. In addition, when the background image and the three-dimensional object are similar, a case where it cannot be detected occurs.

誤検知の場合、立体物以外のカメラ画像を車両上方視点画像と接続して表示することになる。また、立体物を検知できない場合、車両上方視点画像のみの表示になり、カメラ画像では撮影されていても視界外になったり、視界内に存在しても非常に違和感がある立体画像になり、表示画像から実際の物体の状態を確認するのが困難になる。   In the case of erroneous detection, a camera image other than a three-dimensional object is connected to the vehicle upper viewpoint image and displayed. In addition, if a three-dimensional object cannot be detected, only the vehicle upper viewpoint image is displayed, and even if it is captured in the camera image, it becomes out of view, or even if it exists in the view, it becomes a stereoscopic image that is very uncomfortable, It becomes difficult to confirm the state of the actual object from the display image.

また、誤検知、あるいは検知できない場合が多発すると、合成処理した画像内において、上方視点画像にカメラ画像を接続した領域と上方視点画像領域が混在した状態となり、実際の物体の状態を表示画像から確認することは困難になり、障害物の見落としが増加する。このため、周囲の安全確認に時間がかかり、作業効率が低下する。   In addition, if there are many false detections or cases where detection is not possible, in the combined image, the region where the camera image is connected to the upper viewpoint image and the upper viewpoint image region are mixed, and the actual object state is displayed from the display image. It becomes difficult to confirm and obstructions increase. For this reason, it takes time to check the safety of the surroundings, and the work efficiency is lowered.

特許文献2記載の装置では、上述のように、水平方向に連続するように撮影された複数枚の画像から、遠景部分については従来手法のカメラ画像で位置合わせを行い、近景部分では幾何変換により、上方視点の画像に変換し、変換後の画像を接続した後に再び通常の視点から見たように幾何変換を行って、パノラマ画像を作成するものである。   In the apparatus described in Patent Document 2, as described above, from a plurality of images photographed so as to be continuous in the horizontal direction, the far-field portion is aligned using a conventional camera image, and the near-field portion is subjected to geometric transformation. Then, the image is converted into an upper viewpoint image, and after the converted images are connected, geometric conversion is performed again as seen from the normal viewpoint to create a panoramic image.

この装置では、位置合わせを行う部分は固定である。このため、撮影シーンが狭い場合に最適なように固定位置に設定した場合、撮影シーンが広い場合には不自然なパノラマ画像になる。逆に、撮影シーンが広い場合に最適なように固定位置を設定した場合、撮影シーンが狭い場合には不自然なパノラマ画像になる。また、位置合わせを行う部分を連続するように調整しないため、近景部分と遠景部分の結合部にまたがるような物体が存在した場合、違和感が発生する。   In this apparatus, the position to be aligned is fixed. For this reason, when a fixed position is set so as to be optimal when the shooting scene is narrow, an unnatural panoramic image is obtained when the shooting scene is wide. Conversely, when the fixed position is set so as to be optimal when the shooting scene is wide, an unnatural panoramic image is obtained when the shooting scene is narrow. In addition, since the portion to be aligned is not adjusted so as to be continuous, if there is an object that spans the connecting portion of the foreground portion and the distant portion, a sense of incongruity occurs.

本発明は、これらの問題点に鑑みてなされたもので、作業機械の上方に視点を持つ俯瞰画像と周囲を撮影するカメラからのカメラ画像を最適位置で結合して違和感のない結合画像を生成するものである。   The present invention has been made in view of these problems, and combines a bird's-eye view image having a viewpoint above the work machine and a camera image from a camera that shoots the surroundings at an optimal position to generate a combined image without a sense of incongruity. To do.

本発明は上記課題を解決するため、次のような手段を採用した。   In order to solve the above problems, the present invention employs the following means.

作業機械に取り付けられ前記作業機械の周囲を撮影する複数のカメラからのカメラ画像をもとに前記作業機械の上方に視点を持つ俯瞰画像を作成する俯瞰画像作成部と、作業機械の動作を判定して、前記俯瞰画像にカメラ画像を結合して結合画像を作成する際の結合位置を算出する結合位置算出部と、前記俯瞰画像に前記カメラ画像を前記結合位置算出部が算出した位置で結合して結合画像を作成する結合画像作成部と、結合画像作成部で作成した結合画像を合成する結合画像合成部と、前記結合画像合成部で合成した合成画像から障害物を検出する合成画像障害物検知部と、前記合成画像に障害物検知情報を重畳して表示する表示画像生成部を備えた。   An overhead image creation unit that creates an overhead image having a viewpoint above the work machine based on camera images from a plurality of cameras that are attached to the work machine and photograph the surroundings of the work machine, and determines the operation of the work machine Then, a combined position calculation unit that calculates a combined position when a combined image is created by combining the camera image with the overhead image, and the camera image is combined with the overhead image at the position calculated by the combined position calculation unit. A combined image generating unit that generates a combined image, a combined image combining unit that combines the combined image generated by the combined image generating unit, and a composite image obstacle that detects an obstacle from the combined image combined by the combined image combining unit An object detection unit and a display image generation unit that displays obstacle detection information superimposed on the composite image are provided.

本発明は、以上の構成を備えるため、作業機械の上方に視点を持つ俯瞰画像と周囲を撮影するカメラからのカメラ画像を最適位置で結合して違和感のない結合画像を生成することができる。   Since the present invention has the above-described configuration, it is possible to combine a bird's-eye view image with a viewpoint above the work machine and a camera image from a camera that captures the surroundings at an optimal position to generate a combined image without a sense of incongruity.

油圧ショベルの外観を示す図である。It is a figure which shows the external appearance of a hydraulic shovel. 油圧ショベルを上方視点から見た外観図である。It is the external view which looked at the hydraulic excavator from the upper viewpoint. 実施形態にかかる周囲監視装置を説明する図である。It is a figure explaining the surroundings monitoring device concerning an embodiment. 他の実施形態を説明する図である。It is a figure explaining other embodiment. 作業機械の姿勢データ取込み部の詳細を説明する図である。It is a figure explaining the detail of the attitude | position data acquisition part of a working machine. 作業機械の動作データ取込み部の詳細を説明する図である。It is a figure explaining the detail of the operation data taking-in part of a working machine. 結合位置算出部の詳細を説明する図である。It is a figure explaining the detail of a joint position calculation part. 結合画像作成部を説明する模式図である。It is a schematic diagram explaining a combined image creation part. 結合画像作成部において、結合位置を、カメラ近くに設定した場合を説明する図である。It is a figure explaining the case where in a combined image creation part, the combined position is set near the camera. 結合画像作成部において、結合位置を、カメラ遠方に設定した場合を説明する図である。It is a figure explaining the case where in a combined image creation part, a combined position is set far from the camera. 結合画像作成部の他の例を示す模式図である。It is a schematic diagram which shows the other example of a combined image preparation part. 非線形のテーブルを説明する図である。It is a figure explaining a non-linear table. 結合画像作成部のさらに他の例を示す模式図である。It is a schematic diagram which shows the further another example of a combined image preparation part. 結合画像合成部の詳細を説明する図である。It is a figure explaining the detail of a combined image synthetic | combination part. 右側方結合画像の中心位置を示す例である。It is an example which shows the center position of a right side combined image. 結合画像合成部で作成した合成画像における結合位置がカメラから遠方の例である。This is an example in which the combined position in the combined image created by the combined image combining unit is far from the camera. 結合画像合成部で作成した結合位置がカメラに近い例である。This is an example in which the combined position created by the combined image composition unit is close to the camera. 合成画像障害物検知部における画像処理を説明する図である。It is a figure explaining the image processing in a synthetic image obstacle detection part. 表示画像生成部の詳細を説明する図である。It is a figure explaining the detail of a display image generation part. 表示装置に表示される画面の例(フロント作業機の先端が短い場合で周囲の狭い範囲を監視する画面の例)である。It is an example of a screen displayed on the display device (an example of a screen for monitoring a narrow range around the front working machine when the front end is short). 表示装置に表示される画面の例(フロント作業機の先端が短い場合の画面の例)である。It is an example of a screen displayed on the display device (an example of a screen when the front end of the front work machine is short). 表示装置に表示される画面の例(フロント作業機の先端が長い場合で、周囲の広い範囲を監視する画面の例)である。It is an example of a screen displayed on the display device (an example of a screen for monitoring a wide surrounding area when the front working machine has a long tip). 表示装置に表示される画面の例(フロント作業機の先端が長い場合で、周囲の広い範囲を監視する画面の例)である。It is an example of a screen displayed on the display device (an example of a screen for monitoring a wide surrounding area when the front working machine has a long tip).

以下、最良の実施形態を添付図面を参照しながら説明する。図1は、作業機械の例としての油圧ショベルの外観を示す図である。油圧ショベルは、それぞれが垂直方向に回動するブーム1a、アーム1b及びバケット1cを備えた多関節型のフロント作業機1Aと、上部旋回体1d及び下部走行体1eからなる車体1Bとで構成される。   Hereinafter, the best embodiment will be described with reference to the accompanying drawings. FIG. 1 is a diagram illustrating an appearance of a hydraulic excavator as an example of a work machine. The hydraulic excavator includes an articulated front work machine 1A including a boom 1a, an arm 1b, and a bucket 1c that rotate in a vertical direction, and a vehicle body 1B that includes an upper swing body 1d and a lower traveling body 1e. The

上部旋回体1dには、運転室1fが備えられている。フロント作業機1Aのブーム1aの基端は上部旋回体1dの前部に支持されている。ブーム1a、アーム1b、バケット1c、上部旋回体1d及び下部走行体1eはそれぞれブームシリンダ3a、アームシリンダ3b、バケットシリンダ3c、旋回モータ3d(図1には図示しない)及び左右の走行モータ3e,3f(図示しない)の各アクチュエータによりそれぞれ駆動される。また、ブーム1a、アーム1b、バケット1c、上部旋回体1dは、それぞれの回動角を検出する角度検出器8a,8b,8c,8dを備える。また、油圧ショベルの後方には、たとえば作業員20が存在することがある。   The upper swing body 1d is provided with an operator cab 1f. The base end of the boom 1a of the front work machine 1A is supported by the front part of the upper swing body 1d. Boom 1a, arm 1b, bucket 1c, upper swing body 1d and lower traveling body 1e are boom cylinder 3a, arm cylinder 3b, bucket cylinder 3c, swing motor 3d (not shown in FIG. 1) and left and right travel motors 3e, respectively. It is driven by each actuator 3f (not shown). In addition, the boom 1a, the arm 1b, the bucket 1c, and the upper swing body 1d include angle detectors 8a, 8b, 8c, and 8d that detect the respective rotation angles. Further, for example, an operator 20 may exist behind the hydraulic excavator.

図2は、油圧ショベルを上方視点から見た外観(俯瞰画像)図である。上部旋回体1dの上部の車体1Bには、右側方監視用のカメラ13a、後方監視用のカメラ13b、左側方監視用のカメラ13cが備えられ、これらの監視範囲は12a,12b、12cである。また、油圧ショベルは下部走行体1e、1e’を備え、前記監視範囲には、フロント作業機1Aの作業範囲14が含まれる。   FIG. 2 is an external view (overhead image) of the hydraulic excavator viewed from above. The vehicle body 1B above the upper swing body 1d is provided with a right-side monitoring camera 13a, a rear-side monitoring camera 13b, and a left-side monitoring camera 13c. These monitoring ranges are 12a, 12b, and 12c. . The excavator includes lower traveling bodies 1e and 1e ', and the monitoring range includes the working range 14 of the front working machine 1A.

図3は、本実施形態にかかる周囲監視装置を説明する図である。図3において31はカメラ13aの映像信号、32はカメラ13bの映像信号、33はカメラ13cの映像信号、50は画像処理装置、900はカメラ13a及び13b及び13cにより周囲シーン撮影して作業機械周囲の映像等を表示するモニタテレビ、1000は表示装置900の表示内容を監視する運転室1fの運転員である。   FIG. 3 is a diagram illustrating the surrounding monitoring apparatus according to the present embodiment. In FIG. 3, 31 is a video signal of the camera 13a, 32 is a video signal of the camera 13b, 33 is a video signal of the camera 13c, 50 is an image processing device, and 900 is a surrounding scene of the work machine by photographing a surrounding scene with the cameras 13a, 13b and 13c. A monitor TV 1000 for displaying the video and the like is an operator in the cab 1f that monitors the display content of the display device 900.

画像処理装置50は、画像入力部200、俯瞰画像作成部300、結合位置算出部400、結合画像作成部450、結合画像合成部500、合成画像障害物検知部600、作業機械の姿勢データ取込み部700、作業機械の動作データ取込み部750、表示画像生成部800を備える。なお、画像処理装置50はこれらの画像処理が実現できるPC又は画像処理専用装置で構成することができる。   The image processing apparatus 50 includes an image input unit 200, a bird's-eye view image generation unit 300, a combined position calculation unit 400, a combined image generation unit 450, a combined image composition unit 500, a composite image obstacle detection unit 600, and a work machine posture data capture unit. 700, a work machine operation data capturing unit 750, and a display image generating unit 800. The image processing apparatus 50 can be configured by a PC or an image processing dedicated apparatus that can realize these image processes.

処理に際しては、まず、カメラ13aにより撮影対象シーン12aを撮影して、撮影した映像信号31を画像処理装置50へ伝送する。画像処理装置50は、前記映像信号31を入力して画像入力部200に格納する。また、カメラ13bにより撮影対象シーン12bを撮影して、撮影した映像信号32を画像処理装置50へ伝送する。画像処理装置50は、前記映像信号32を入力して画像入力部200に格納する。カメラ13cは、撮影対象シーン12cを撮影して、撮影した映像信号33を画像処理装置50へ伝送する。画像処理装置50は、映像信号33を入力し画像入力部200に格納する。格納した映像信号31及び映像信号32及び映像信号33は俯瞰変換して俯瞰画像300を作成する。なお、俯瞰画像300の作成は、公知の技術(例えば特開2006−48451号公報参照)により実現できる。   In the processing, first, the camera 12a captures the scene 12a, and transmits the captured video signal 31 to the image processing device 50. The image processing apparatus 50 inputs the video signal 31 and stores it in the image input unit 200. In addition, the camera 13 b captures the shooting target scene 12 b and transmits the captured video signal 32 to the image processing device 50. The image processing device 50 inputs the video signal 32 and stores it in the image input unit 200. The camera 13 c captures the shooting target scene 12 c and transmits the captured video signal 33 to the image processing apparatus 50. The image processing apparatus 50 inputs the video signal 33 and stores it in the image input unit 200. The stored video signal 31, video signal 32, and video signal 33 are overhead converted to create an overhead image 300. Note that the creation of the bird's-eye view image 300 can be realized by a known technique (see, for example, JP-A-2006-48451).

次に、作業機械のフロント作業機1Aの姿勢データ700を取り込み、更に、上部旋回体1d及び下部走行体1eの動作データ750を取り込み、これらの姿勢データ700と動作データ750から、カメラ13aが撮影したシーン12aに対して、動作データ750及び動作データ750の変動に連動させて俯瞰画像300における結合位置を算出400し、入力した画像200における結合位置も算出400し、俯瞰画像300と入力画像200と算出した結合位置400を用いて、結合画像450を作成する。   Next, the posture data 700 of the front work machine 1A of the work machine is captured, and further, the operation data 750 of the upper swing body 1d and the lower traveling body 1e are captured, and the camera 13a takes an image from the posture data 700 and the operation data 750. The combined position in the overhead image 300 is calculated 400 in conjunction with the motion data 750 and the fluctuation of the motion data 750 for the scene 12a, and the combined position in the input image 200 is also calculated 400, and the overhead image 300 and the input image 200 are calculated. A combined image 450 is created using the calculated combined position 400.

同様に、カメラ13bが撮影したシーン12bに対して、俯瞰画像300における結合位置を算出400し、入力した画像200における結合位置も算出400し、俯瞰画像300と入力画像200と算出した結合位置400を用いて、結合画像450を作成する。また、カメラ13cが撮影したシーン12cに対して、俯瞰画像300における結合位置を算出400し、入力した画像200における結合位置も算出400し、俯瞰画像300と入力画像200と算出した結合位置400を用いて、結合画像450を作成する。シーン12aに対する結合画像450及びシーン12bに対する結合画像450及びシーン12cに対する結合画像450を用いて、上方視点の模擬作業機械を中心にし周囲に結合画像を配置して結合画像を合成500する。   Similarly, a combined position in the overhead image 300 is calculated 400 for the scene 12b captured by the camera 13b, a combined position in the input image 200 is also calculated 400, and the combined position 400 calculated from the overhead image 300 and the input image 200 is calculated. Is used to create a combined image 450. Also, the combined position in the overhead image 300 is calculated 400 for the scene 12c photographed by the camera 13c, the combined position in the input image 200 is also calculated 400, and the combined position 400 calculated from the overhead image 300 and the input image 200 is obtained. To create a combined image 450. Using the combined image 450 for the scene 12a, the combined image 450 for the scene 12b, and the combined image 450 for the scene 12c, the combined image is synthesized 500 by placing the combined image around the simulated work machine at the upper viewpoint.

更に、合成した結合画像500に対して、画像処理手法を用いて障害物検知600を行い、障害物検知600の検知結果を重畳し、フロント作業機1Aの姿勢データ700から取り込んだフロント作業機の先端位置のデータを用いて危険範囲も重畳し、フロント作業機1Aの動作データ750から取り込んだ旋回範囲及び/又は走行予想軌跡及び/又は走行ガイドラインも重畳する表示画像の生成800を行い、モニタ等の表示装置900に表示する。   Further, the obstacle detection 600 is performed on the synthesized combined image 500 using an image processing method, the detection result of the obstacle detection 600 is superimposed, and the front work machine imported from the posture data 700 of the front work machine 1A is superimposed. Using the tip position data, the danger range is also superimposed, and the display image generation 800 is also performed to superimpose the turning range and / or the predicted travel path and / or the travel guideline taken from the operation data 750 of the front work machine 1A, and the monitor, etc. Displayed on the display device 900.

これにより、作業機械の周囲にある障害物の把握が一目瞭然となり、作業機械の操作の適否判断を瞬時にかつ的確に行うことができる。このため、作業効率と安全性を向上することができる。   As a result, the grasp of the obstacle around the work machine becomes clear at a glance, and the suitability of the operation of the work machine can be instantly and accurately determined. For this reason, work efficiency and safety can be improved.

図4は、本発明の他の実施形態を説明する図である。この例においては、画像処理装置50は、画像入力部200、画像歪み補正部250、俯瞰画像作成部300、結合位置算出部400、結合画像作成部450、結合画像合成部500、合成画像障害物検知部600、作業機械の姿勢データ取込み部700、作業機械の動作データ取込み部750、表示画像生成部800を備える。なお、画像処理装置50は、これらの画像処理が実現できるPC又は画像処理専用装置で構成することができる。   FIG. 4 is a diagram for explaining another embodiment of the present invention. In this example, the image processing apparatus 50 includes an image input unit 200, an image distortion correction unit 250, an overhead image creation unit 300, a combined position calculation unit 400, a combined image generation unit 450, a combined image composition unit 500, and a composite image obstacle. It includes a detection unit 600, a work machine attitude data acquisition unit 700, a work machine operation data acquisition unit 750, and a display image generation unit 800. Note that the image processing apparatus 50 can be configured by a PC or an image processing dedicated apparatus that can realize these image processes.

歪み補正部300は、入力される画像に歪みが無ければ省略してもよい。しかし、車両あるいは作業機械の周囲監視では、広範囲が撮影できる広視野角のレンズを用いたカメラを使用することが多く、撮影シーンの周辺で歪みが発生する。そこで、この歪みを補正する歪み補正部250が必要となる。なお、この歪み補正部は、例えば公知の技術(例えば特開2006−59270号参照)により実現できる。   The distortion correction unit 300 may be omitted if there is no distortion in the input image. However, when monitoring the surroundings of a vehicle or work machine, a camera using a lens with a wide viewing angle capable of shooting a wide range is often used, and distortion occurs around the shooting scene. Therefore, a distortion correction unit 250 that corrects this distortion is required. The distortion correction unit can be realized by, for example, a known technique (for example, see Japanese Patent Application Laid-Open No. 2006-59270).

図5は、作業機械の姿勢データ取込み部750の詳細を説明する図である。まず、701において、ブーム1aの回動角を検出する角度検出器8aの出力θ1を取込み、702において、アーム1bの回動角を検出する角度検出器8bの出力θ2を取込み、703において、バケット1cの回動角を検出する角度検出器8cの出力θ3をみ、704において、上部旋回体1dの回動角を検出する角度検出器8dの出力θ4を取込む。   FIG. 5 is a diagram for explaining the details of the posture data capturing unit 750 of the work machine. First, in 701, the output θ1 of the angle detector 8a that detects the rotation angle of the boom 1a is taken in, in 702, the output θ2 of the angle detector 8b that detects the rotation angle of the arm 1b is taken in, and in 703 The output θ3 of the angle detector 8c that detects the rotation angle of 1c is viewed, and at 704, the output θ4 of the angle detector 8d that detects the rotation angle of the upper swing body 1d is captured.

次に、705において、これらのデータθ1,θ2,θ3,θ4を用いてバケット1cの先端座標を算出を算出する。これにより、車体1Bにおけるフロント作業機1Aの先端位置のデータが算出され、作業機械における周囲の危険範囲が分かる。   Next, in 705, the calculation of the tip coordinates of the bucket 1c is calculated using these data θ1, θ2, θ3, and θ4. Thereby, the data of the tip position of the front work machine 1A in the vehicle body 1B is calculated, and the surrounding danger range in the work machine can be known.

図6は、作業機械の動作データ取込み部750の詳細を説明する図である。まず、704において、上部旋回体1dの回動角を検出する角度検出器8dの出力θ4を取込む、次に、707において、上部旋回体1dの旋回方向を算出する。708において、走行モータ3eから走行速度を算出する。更に、709において、下部走行体1eの回転から走行方向を算出する。これにより、作業機械の旋回方向と走行速度が算出され、さらに走行軌跡の予想が可能となり、走行ガイドラインの提示が可能となる。   FIG. 6 is a diagram for explaining the details of the operation data fetch unit 750 of the work machine. First, in 704, the output θ4 of the angle detector 8d that detects the rotation angle of the upper swing body 1d is taken. Next, in 707, the turning direction of the upper swing body 1d is calculated. In 708, the traveling speed is calculated from the traveling motor 3e. Further, in 709, the traveling direction is calculated from the rotation of the lower traveling body 1e. As a result, the turning direction and the traveling speed of the work machine are calculated, the traveling locus can be predicted, and the traveling guideline can be presented.

図7は、結合位置算出部400の詳細を説明する図である。まず401において、作業機械の動作を判定する。判定した動作がフロント作業、即ち、掘削の場合、402において、周囲の広い範囲を把握するためカメラに近い結合位置の距離を算出(算出値Pa)し、403において、俯瞰画像作成部300で作成した俯瞰画像に対し、カメラ側からPa位置までの結合部の領域を切り出す(俯瞰画像PL)。404において、入力画像に対しPa位置以降の矩形領域を切り出す(カメラ画像RL)。次に、405において、Pa位置でPL画像とRL画像を結合するため、結合部でRL画像をPL画像に合わせるように調整する画像のリサイズを行う。   FIG. 7 is a diagram for explaining the details of the coupling position calculation unit 400. First, at 401, the operation of the work machine is determined. When the determined operation is a front work, that is, excavation, in 402, the distance of the coupling position close to the camera is calculated (calculated value Pa) in order to grasp a wide surrounding range, and in 403, created by the overhead image creation unit 300 An area of the connecting portion from the camera side to the Pa position is cut out from the overhead image thus obtained (overhead image PL). In 404, a rectangular area after the Pa position is cut out from the input image (camera image RL). Next, in 405, in order to combine the PL image and the RL image at the Pa position, the image is resized by the combining unit so that the RL image is adjusted to the PL image.

また、401において判定した動作が走行の場合、掘削の場合と同様の処理を行う。401において判定した動作が旋回の場合、406において、姿勢データ取込み部700で取り込んだ姿勢データから作業機械の姿勢を判定し、フロント作業機の先端が長い場合には、掘削の場合と同様に、402、403、404の処理を行う。一方、フロント作業機の先端が短い場合には、407において、周囲の狭い範囲を把握するため、カメラから遠い結合位置である距離を算出(算出値Pb)し、408において俯瞰画像作成部300で作成した俯瞰画像に対し、カメラ側からPb位置までの結合部の領域を切り出す(俯瞰画像PM)。409において入力画像に対しPb位置以降の矩形領域を切り出す(カメラ画像RM)。410においてPb位置でPM画像とRM画像を結合するため、結合部でRM画像をPM画像に合わせるように調整する画像のリサイズを行う。   Further, when the operation determined in 401 is traveling, the same processing as that in the case of excavation is performed. When the action determined in 401 is turning, in 406, the posture of the work machine is determined from the posture data captured by the posture data capturing unit 700. When the front end of the front work machine is long, as in the case of excavation, Processes 402, 403, and 404 are performed. On the other hand, when the front end of the front work machine is short, in 407, in order to grasp the surrounding narrow range, the distance that is the coupling position far from the camera is calculated (calculated value Pb). An area of the joint from the camera side to the Pb position is cut out from the created overhead image (overhead image PM). In 409, a rectangular region after the Pb position is cut out from the input image (camera image RM). In 410, in order to combine the PM image and the RM image at the Pb position, the combining unit resizes the image to be adjusted so that the RM image matches the PM image.

ここで、407においては、周囲の狭い範囲を把握するため、カメラから遠い結合位置である距離を算出(Pb)するが、結合位置の距離を算出しないで、俯瞰画像作成部300で作成した俯瞰画像のままでもよい。   Here, in 407, in order to grasp the narrow range of the surroundings, the distance that is the coupling position far from the camera is calculated (Pb), but the overhead image created by the overhead image creation unit 300 is calculated without calculating the distance of the coupling position. The image may be left as it is.

カメラから遠い結合位置を算出すると、俯瞰画像の領域が多いため、作業機械周囲の狭い範囲が詳細に把握でき、近くの作業員が鮮明に表示される効果がある。また、カメラから近い結合位置を算出すると、作業機械周囲の広い範囲を粗くざっと把握できる上、遠方の作業員も違和感無く表示される効果がある。   When the coupling position far from the camera is calculated, since there are many bird's-eye view image areas, a narrow range around the work machine can be grasped in detail, and the nearby workers can be clearly displayed. In addition, when calculating the coupling position close to the camera, it is possible to roughly grasp a wide range around the work machine and to display distant workers without a sense of incongruity.

一方、カメラ設置位置が高い場合、結合位置算出部400で算出した結合位置よりも若干遠い位置に結合位置を算出し、カメラ設置位置が低い場合、結合位置算出部400で算出した結合位置よりも若干近い位置に結合位置を算出しする。ここで、カメラ設置高が2mを基準の例で算出した場合に対し、カメラ設置位置が高いとは、2mより高い場合であり、カメラ設置位置が低いとは、2mより低い場合である。   On the other hand, when the camera installation position is high, the coupling position is calculated at a position slightly further than the coupling position calculated by the coupling position calculation unit 400. When the camera installation position is low, the coupling position calculated by the coupling position calculation unit 400 is calculated. The coupling position is calculated at a slightly close position. Here, when the camera installation height is calculated based on an example of 2 m, the camera installation position is higher than 2 m, and the camera installation position is lower than 2 m.

図8は、結合画像作成部450を説明する模式図である。結合位置算出部400が算出した結合位置の距離453(カメラからの距離453)までは、上方視点から見た俯瞰画像作成部300の俯瞰画像451表示し、距離453より遠方は、垂直な視点の画像入力部200で取り込んだカメラ画像452そのままの入力画像を用いて画像を結合する。   FIG. 8 is a schematic diagram illustrating the combined image creation unit 450. Up to the combined position distance 453 calculated by the combined position calculation unit 400 (distance 453 from the camera), the overhead view image 451 of the overhead view image creation unit 300 viewed from the upper viewpoint is displayed. The images are combined using the input image of the camera image 452 captured by the image input unit 200 as it is.

このように合成すると、後方カメラ13bの周囲に存在する人物20は、俯瞰画像作成部300で作成した俯瞰画像451では上方視点の変形した人物になり、画像入力部200で取り込んだカメラ画像452では垂直な視点の人物になる。これらを結合位置453で結合すると、人物20は見た目に近くなり、違和感が少なくなる。   When combined in this way, the person 20 existing around the rear camera 13b becomes a person whose upper viewpoint is deformed in the overhead image 451 created by the overhead image creation unit 300, and in the camera image 452 captured by the image input unit 200. Become a person with a vertical perspective. When these are combined at the combining position 453, the person 20 becomes close to the appearance and the feeling of strangeness is reduced.

ここで、図8は、直線で結合位置を算出する例であるが、カメラ位置を中心とした円弧で設定することもできる。   Here, FIG. 8 shows an example in which the coupling position is calculated by a straight line, but it can also be set by an arc centered on the camera position.

図9は、結合画像作成部450において、フロント作業機の先端が長い場合、掘削又は走行における場合のように周囲の広い範囲を把握する必要がある場合において、結合位置を、カメラ近くに算出454した場合を説明する図である。ここでの広い範囲とは、例えば、カメラ設置高が2mの場合、周囲4m以遠まで撮影するシーンの場合とする。   FIG. 9 shows that the combined image creation unit 450 calculates the combined position close to the camera 454 when the front working machine has a long tip and when it is necessary to grasp a wide range of surroundings as in excavation or traveling. It is a figure explaining the case where it did. Here, for example, when the camera installation height is 2 m, the wide range is a scene that is photographed up to a distance of 4 m or more.

まず、後方カメラ13bの入力画像200aの場合、周囲8mまで表示204するシーンで、人物20aの足元が4mの位置に存在する場合で説明する。   First, in the case of the input image 200a of the rear camera 13b, a case where the foot of the person 20a is present at a position of 4 m in a scene in which the surrounding area is displayed 204 will be described.

入力画像200aをもとに俯瞰画像作成部300で作成した俯瞰画像300aにおいては、背景シーンとともに人物20bも変換され、人物20bはカメラから遠方では、頭部等が変形されて大きくなり、見た目に違和感のある人物像になる。そこで、カメラから結合位置454までは、俯瞰画像の領域300bを切り出し、結合位置454以遠は、入力画像200aの領域200bを切り出して結合する。しかし、領域300bと領域200bをそのまま結合すると、サイズが合わないため、領域300bの位置結合位置と領域200bの位置結合位置を調整してサイズ合わせを行い、領域300bをリサイズして領域300cを作成し、領域200bをリサイズして領域200cを作成し、これらを結合して、結合画像451を作成する。リサイズされた領域200cでは、人物20bもリサイズされ人物20cとなる。   In the bird's-eye view image 300a created by the bird's-eye view image creation unit 300 based on the input image 200a, the person 20b is also converted together with the background scene. It becomes a strange person image. Therefore, the overhead image region 300b is cut out from the camera to the combining position 454, and the region 200b of the input image 200a is cut out and combined after the combining position 454. However, if the region 300b and the region 200b are combined as they are, the sizes do not match. Therefore, the size is adjusted by adjusting the position combining position of the region 300b and the position combining position of the region 200b, and the region 300b is resized to create the region 300c. Then, the region 200b is resized to create the region 200c, and these are combined to create a combined image 451. In the resized area 200c, the person 20b is also resized to become the person 20c.

図10は、結合画像作成部450におけるフロント作業機の先端が短い場合において、周囲の狭い範囲を把握するための結合位置を、カメラ遠方に算出455した場合を説明する図である。ここでの狭い範囲とは、例えば、カメラ設置高が2mの場合、周囲3m以内で撮影するシーンの場合である。   FIG. 10 is a diagram for explaining a case where the combined position for grasping a narrow range around the camera is calculated 455 far away when the front end of the front work machine in the combined image creation unit 450 is short. The narrow range here is, for example, a scene that is shot within 3 m when the camera installation height is 2 m.

まず、後方カメラ13bの入力画像200aの場合、周囲3mまで表示205するシーンで、人物20aの足元が2mの位置に存在する場合で説明する。   First, in the case of the input image 200a of the rear camera 13b, a case where the foot of the person 20a is present at a position 2m in a scene 205 that displays up to 3m around will be described.

入力画像200aを俯瞰画像作成部300で作成した俯瞰画像200bでは、背景シーンとともに人物20bに変換され、人物20bはカメラから遠方では、頭部等が変形されて大きくなり、見た目に違和感のある人物になってしまう。そこで、カメラから結合位置455までは、俯瞰画像の領域300dを切り出し、結合位置455以遠は、入力画像200aの領域200dを切り出す。しかし、領域300dと領域200dをそのまま結合すると、サイズが合わないため、領域300dの結合位置と領域200dの結合位置を調整してサイズ合わせを行い、領域300dをリサイズして領域300eを作成し、領域200dをリサイズして領域200eを作成して結合して、結合画像452を作成する。リサイズされた領域200eでは、人物20cもリサイズされ人物20dとなる。   In the bird's-eye view image 200b created by the bird's-eye view image creation unit 300, the background scene is converted into a person 20b. Become. Accordingly, the overhead image region 300d is cut out from the camera to the combining position 455, and the region 200d of the input image 200a is cut out after the combining position 455. However, since the size does not match if the region 300d and the region 200d are joined together, the size is adjusted by adjusting the joining position of the region 300d and the joining position of the region 200d, the region 300d is resized, and the region 300e is created. The region 200d is resized to create and combine the region 200e to create a combined image 452. In the resized area 200e, the person 20c is also resized to become a person 20d.

これにより、人物20c、20dは見た目に近くなり、違和感が少なくなり、人物や障害物等の存在を的確かつ効果的に把握することができ、作業効率と安全性が向上する。   As a result, the persons 20c and 20d are close to the appearance, the feeling of incongruity is reduced, the presence of persons, obstacles, and the like can be accurately and effectively grasped, and work efficiency and safety are improved.

図11は、結合画像作成部450の他の例を示す模式図である。結合位置算出部400が算出した結合位置の距離453付近の領域461を設定し、結合位置の距離453における結合が連続して滑らかに変化する非線形のテーブルを作成して、俯瞰画像領域451と、領域461と、カメラ画像領域452を結合する。 FIG. 11 is a schematic diagram illustrating another example of the combined image creation unit 450. An area 461 in the vicinity of the coupling position distance 453 calculated by the coupling position calculation unit 400 is set, and a non-linear table in which the coupling at the coupling position distance 453 continuously and smoothly changes is created. The area 461 and the camera image area 452 are combined.

図12は非線形のテーブルを説明する図である。俯瞰画像とカメラ画像を結合する結合位置付近の領域461における両者の結合の割合を表す非線形のテーブルは、例えば、図12に示すように、0(俯瞰画像領域451)から1(カメラ画像領域452)の間を0.1、0.2、0.4、0.6、0.8の割合で結合することを表している。   FIG. 12 illustrates a non-linear table. For example, as shown in FIG. 12, a non-linear table indicating the ratio of the combination of the overhead image and the camera image in the region 461 near the coupling position is from 0 (overhead image region 451) to 1 (camera image region 452). ) In the ratio of 0.1, 0.2, 0.4, 0.6, 0.8.

図13は、結合画像作成部450のさらに他の例を示す模式図である。図13の示すように上方視点の俯瞰画像451とカメラ画像452に対して、対数変換テーブル463を適用してもよい。   FIG. 13 is a schematic diagram illustrating still another example of the combined image creation unit 450. As shown in FIG. 13, a logarithmic conversion table 463 may be applied to the overhead view image 451 and the camera image 452 of the upper viewpoint.

図14は、結合画像合成部500の詳細を説明する図である。まず、501において、上方視点における模擬作業機械の中心位置(OC)を設定する。502において、右側方カメラ13aの右側方結合画像格納メモリを読み込み、503において、後方カメラ13bの後方結合画像格納メモリを読み込み、504において、左側方カメラ13cの左側方結合画像格納メモリを読み込む。505において、右側方結合画像502を右側方へ配置するための右側90°回転を行い、506において、後方結合画像503を後方へ配置するための上下反転を行い、507において、左側方結合画像504を左側方へ配置するための左側90°回転を行う。次に、508において、右側方結合画像の中心位置と上方視点における模擬作業機械の中心位置OCをあわせて配置し、509において、後方結合画像の中心位置と上方視点における模擬作業機械の中心位置OCをあわせて配置し、510において、左側方結合画像の中心位置と上方視点における模擬作業機械の中心位置OCをあわせて配置する。最後に、511において、上方視点における模擬作業機械の右側に右側方結合画像508を配置し、後方に後方結合画像509を配置し、左側に左側方結合画像510を配置して、表示用画像を作成する。   FIG. 14 is a diagram for explaining the details of the combined image composition unit 500. First, at 501, the center position (OC) of the simulated work machine at the upper viewpoint is set. In 502, the right side combined image storage memory of the right side camera 13a is read. In 503, the rear combined image storage memory of the rear camera 13b is read. In 504, the left side combined image storage memory of the left side camera 13c is read. In 505, the right-side combined image 502 is rotated 90 ° on the right side to arrange the right side combined image 502. In 506, the upside down image is arranged to arrange the rear combined image 503 in the rear side. In 507, the left side combined image 504 is displayed. Rotate left 90 ° to position the left side. Next, at 508, the center position of the right side combined image and the center position OC of the simulated work machine at the upper viewpoint are arranged together, and at 509, the center position of the rear combined image and the center position OC of the simulated work machine at the upper viewpoint are arranged. In 510, the center position of the left side combined image and the center position OC of the simulated work machine at the upper viewpoint are aligned. Finally, at 511, the right side combined image 508 is arranged on the right side of the simulated work machine at the upper viewpoint, the rear combined image 509 is arranged behind, the left side combined image 510 is arranged on the left side, and the display image is displayed. create.

図15は、右側方結合画像の中心位置523を示す例である。右側方結合画像の上部端の延長線521と、下部端の延長線522の交点が中心位置523である。   FIG. 15 is an example showing the center position 523 of the right side combined image. The intersection of the extension line 521 at the upper end and the extension line 522 at the lower end of the right side combined image is the center position 523.

図16は、結合画像合成部500で作成した合成画像における結合位置がカメラから遠方の例である。まず、右側方入力画像に対し、結合位置算出部400で算出した結合位置532において結合した結合画像533の交点523を、上方視点から見た模擬作業機械1の中心531にあわせて配置する。次に、後方入力画像に対し、結合位置算出部400で算出した結合位置534において結合した結合画像535の交点523を、上方視点から見た模擬作業機械1の中心531にあわせて配置する。更に、左側方入力画像に対し、結合位置算出部400で算出した結合位置536において結合した結合画像537の交点523を、上方視点から見た模擬作業機械1の中心531にあわせて配置する。ここで、後方カメラの視野内に存在する人物20の頭部が入力画像で結合されるため、違和感の少ない人物538になる。また、模擬作業機械1の後部における死角発生有無が確認でき、黒部539の死角が発生していることがわかる。これにより、運転員が操作している模擬作業機械1の運転席から、作業機械の周囲の作業員の存在方向や位置、カメラ設置の死角有無を確認できる。また、作業機械周囲の狭い範囲が詳細に把握でき、近くの作業員を鮮明に表示することができる。   FIG. 16 is an example in which the combined position in the combined image created by the combined image combining unit 500 is far from the camera. First, the intersection 523 of the combined image 533 combined at the combined position 532 calculated by the combined position calculation unit 400 with respect to the right side input image is arranged according to the center 531 of the simulated work machine 1 viewed from the upper viewpoint. Next, the intersection 523 of the combined image 535 combined at the combined position 534 calculated by the combined position calculation unit 400 with respect to the rear input image is arranged according to the center 531 of the simulated work machine 1 viewed from the upper viewpoint. Furthermore, the intersection 523 of the combined image 537 combined at the combined position 536 calculated by the combined position calculation unit 400 with respect to the left side input image is arranged according to the center 531 of the simulated work machine 1 viewed from the upper viewpoint. Here, since the head of the person 20 existing in the field of view of the rear camera is combined in the input image, the person 538 is less likely to feel strange. Further, it can be confirmed whether or not the blind spot is generated at the rear part of the simulated work machine 1, and it is understood that the blind spot of the black part 539 is generated. Thereby, from the driver's seat of the simulation work machine 1 which the operator operates, the presence direction and position of the worker around the work machine and the blind spot of the camera installation can be confirmed. Further, a narrow range around the work machine can be grasped in detail, and nearby workers can be clearly displayed.

図17は、結合画像合成部500で作成した結合位置がカメラに近い例である。まず、右側方入力画像に対し、結合位置算出部400で算出した結合位置541において結合した結合画像542の交点523を、上方視点から見た模擬作業機械1の中心531にあわせて配置する。次に、後方入力画像に対し、結合位置算出部400で算出した結合位置543において結合した結合画像544の交点523を、上方視点から見た模擬作業機械1の中心531にあわせて配置する。更に、左側方入力画像に対し、結合位置算出部400で算出した結合位置545において結合した結合画像546の交点523を、上方視点から見た模擬作業機械1の中心531にあわせて配置する。ここで、後方カメラの視野内に存在する人物20が入力画像で結合されるため、違和感の少ない人物547になる。これにより、運転員が操作している模擬作業機械1の運転席から、作業機械の周囲の作業員の存在方向や位置、カメラ設置の死角有無を確認できる。また、作業機械周囲の広い範囲を粗くざっと把握できる上、遠方の作業員も違和感無く表示される。   FIG. 17 shows an example in which the combined position created by the combined image combining unit 500 is close to the camera. First, the intersection point 523 of the combined image 542 combined at the combined position 541 calculated by the combined position calculation unit 400 with respect to the right side input image is arranged according to the center 531 of the simulated work machine 1 viewed from the upper viewpoint. Next, the intersection point 523 of the combined image 544 combined at the combined position 543 calculated by the combined position calculation unit 400 with respect to the rear input image is arranged in accordance with the center 531 of the simulated work machine 1 viewed from the upper viewpoint. Furthermore, the intersection 523 of the combined image 546 combined at the combined position 545 calculated by the combined position calculation unit 400 with respect to the left side input image is arranged according to the center 531 of the simulated work machine 1 viewed from the upper viewpoint. Here, since the person 20 existing in the field of view of the rear camera is combined in the input image, the person 547 is less discomfort. Thereby, from the driver's seat of the simulation work machine 1 which the operator operates, the presence direction and position of the worker around the work machine and the blind spot of the camera installation can be confirmed. In addition, it is possible to roughly grasp a wide range around the work machine, and distant workers are displayed without a sense of incongruity.

図18は、合成画像障害物検知部800における画像処理を説明する図である。まず、610において、合成画像を取り込み、610、615において、上方視点の模擬作業機械の領域を除外するようにマスクする。620において、直前合成画像と現合成画像の画素毎の差分画像を作成する。630において、620において作成した差分画像を所定の閾値(7〜15程度)と比較し、閾値未満を0、閾値以上を1以上にする2値化処理を行って障害物の変化領域を抽出する。640において、変化領域を抽出したか否かを判定し、抽出しない場合、650において障害物無しとする。   FIG. 18 is a diagram for describing image processing in the composite image obstacle detection unit 800. First, in 610, a composite image is captured, and in 610 and 615, masking is performed so as to exclude the area of the simulated work machine from the upper viewpoint. At 620, a difference image for each pixel of the immediately preceding composite image and the current composite image is created. In 630, the difference image created in 620 is compared with a predetermined threshold value (about 7 to 15), and binarization processing is performed so that a value less than the threshold value is 0, and a value greater than or equal to the threshold value is 1 or more, and an obstacle change region is extracted. . In 640, it is determined whether or not a change area has been extracted.

一方、640において、変化領域を抽出した場合、660において特徴算出を行う。障害物の特徴として、縦横比、あるいは抽出領域を頭部、胴体部、下部に3分割してそれぞれの輪郭形状等を算出し、670において人物の特徴か否かを判定する。例えば660で算出した特徴量の縦横比が縦長であり、抽出領域の頭部は扇型の輪郭で、胴体部のうち肩部は斜め輪郭で胴体部は縦輪郭で、下部に逆V字の輪郭や縦輪郭等の特徴が複数存在する場合は690において人物有りと判断し、これら特徴が複数存在しない場合は680において人物以外の障害物有りと判定する。   On the other hand, if a change area is extracted at 640, feature calculation is performed at 660. As the features of the obstacle, the aspect ratio or the extraction region is divided into three parts, the head, the body, and the lower part, and the respective contour shapes and the like are calculated. For example, the aspect ratio of the feature amount calculated in 660 is vertically long, the head of the extraction region has a fan-shaped contour, the shoulder portion of the trunk portion has an oblique contour, the trunk portion has a vertical contour, and an inverted V-shaped lower portion. If there are a plurality of features such as contours and vertical contours, it is determined in 690 that there is a person, and if there are not a plurality of these features, it is determined in 680 that there is an obstacle other than a person.

ここで、合成画像障害物検知部800は、画像処理による手法でなく、作業機械に設置した距離センサ等のセンサ類で判定しても良い。   Here, the composite image obstacle detection unit 800 may make the determination using a sensor such as a distance sensor installed in the work machine, instead of using a technique based on image processing.

図19は、表示画像生成部800の詳細を説明する図である。まず、810において、フロント作業機1Aの先端位置から危険範囲を算出する。820において、フロント作業機1Aの長さと下部走行体1eからの方向を用いて、フロント作業機1Aを前にして、下部走行体1eとの位置関係を決定する。830において車体1Bの描画データである上方視点模擬作業機データを作成する。次に、840において、合成画像障害物検知部600の検出データを用いて、運転室1fと障害物20および障害物20までの距離データを算出する。更に、850において、車体1Bのフロント作業機1Aの模擬画像を上部(前方)にして中央部に配置した画像(フロント作業機1Aを前方にして車体1Bを中心とする上方視点に変換した画像)と危険範囲と障害物20のマーク、旋回範囲、走行予想軌跡、走行ガイドラインを重畳させた表示画像を生成して、表示装置900に表示する。これにより、運転室1fの運転員は、自分が中心位置で前方を見ている状態で、監視する周囲全体に対して、真上からの作業機械周囲に障害物20がどの位置に存在しているのかが一目瞭然になり、即座に作業機械の旋回や、走行ガイドライン、走行予想軌跡を判断できる。   FIG. 19 is a diagram for explaining the details of the display image generation unit 800. First, at 810, a danger range is calculated from the tip position of the front work machine 1A. In 820, the positional relationship with the lower traveling body 1e is determined in front of the front working machine 1A using the length of the front working machine 1A and the direction from the lower traveling body 1e. At 830, the upper viewpoint simulation work machine data which is the drawing data of the vehicle body 1B is created. Next, at 840, distance data to the cab 1f, the obstacle 20, and the obstacle 20 is calculated using the detection data of the composite image obstacle detection unit 600. Further, in 850, an image in which a simulated image of the front work machine 1A of the vehicle body 1B is arranged at the center with the upper part (front) (an image obtained by converting the front work machine 1A forward and an upper viewpoint centered on the vehicle body 1B). A display image in which the danger range, the obstacle 20 mark, the turning range, the predicted travel path, and the travel guideline are superimposed is generated and displayed on the display device 900. As a result, the operator in the cab 1f looks at the front at the center position, and the position of the obstacle 20 around the work machine from directly above the entire surrounding to be monitored. This makes it possible to determine at a glance the turning of the work machine, the driving guidelines, and the predicted driving trajectory.

なお、表示装置900は運転室内に設けてもよく、運転員が目視確認可能な位置ならどこでも良い。また、合成画像障害物検知部600が、障害物20を検知した場合、表示装置900に表示するとともに、運転員に音声で報知してもよい。また、旋回開始時点で、障害物が存在している等のアラームを出力したり、障害物の退去を音声で出力しても良い。   The display device 900 may be provided in the driver's cab, and may be anywhere as long as the operator can visually check it. Further, when the composite image obstacle detection unit 600 detects the obstacle 20, it may be displayed on the display device 900 and notified to the driver by voice. Further, at the start of turning, an alarm such as the presence of an obstacle may be output, or the movement of the obstacle may be output by voice.

これにより、作業中の運転者に対して、障害物存在時に機械と障害物の位置関係の把握が一目瞭然となり、フロント作業機の旋回の適否判断が的確かつ瞬時にできるため、障害物を回避できるとともに、作業効率が向上する効果がある。   This makes it easy for the driver to understand the positional relationship between the machine and the obstacle when there is an obstacle, making it possible to determine the propriety of turning the front work machine accurately and instantaneously, thus avoiding the obstacle. At the same time, the working efficiency is improved.

図20は、表示装置900に表示される画面の例(フロント作業機の先端が短い場合で
周囲の狭い範囲を監視する画面の例)であり、障害物が検出された場合の例である。結合画像合成部500で結合した障害物538に対し、障害物マーク905を重畳し、危険範囲905を重畳する。また、画面下部には、障害物検知を検知したのは、後方カメラ901、右側方カメラ902、左側方カメラ903のどれであるか判別しやすいように表示する。例えば後方カメラ901が検知した場合、該部分を誇張して表示し、作業機械の旋回状態を表示908する。更に、表示を拡大906したり、標準表示907するI/Fを設定しても良い。
FIG. 20 is an example of a screen displayed on the display device 900 (an example of a screen for monitoring a narrow range around the front working machine when the tip of the front work machine is short), and is an example when an obstacle is detected. The obstacle mark 905 is superimposed on the obstacle 538 combined by the combined image composition unit 500, and the danger range 905 is superimposed. Further, at the bottom of the screen, an obstacle detection is displayed so that it can be easily determined which of the rear camera 901, the right side camera 902, and the left side camera 903 is detected. For example, when the rear camera 901 detects, the part is exaggerated and displayed, and the turning state of the work machine is displayed 908. Further, an I / F for enlarging the display 906 or standard display 907 may be set.

図21は、表示装置900に表示される画面の例(フロント作業機の先端が短い場合の画面の例)である。作業機械の状態である走行速度メータ905、オイル残量メータ906、エンジン出力メータ906等も表示しても良い。   FIG. 21 is an example of a screen displayed on the display device 900 (an example of a screen when the front end of the front work machine is short). A traveling speed meter 905, a remaining oil meter 906, an engine output meter 906, etc., which are the state of the work machine, may also be displayed.

図22は、表示装置900に表示される画面の例(フロント作業機の先端が長い場合で、周囲の広い範囲を監視する画面の例)であり、障害物が検出された場合の例である。結合画像合成部500で結合した障害物538に対し、障害物マーク905を重畳し、危険範囲905を重畳する。また、画面下部には、障害物検知を検知したのは、後方カメラ901、右側方カメラ902、左側方カメラ903のどれであるか判別しやすいように表示する。例えば、後方カメラ901が検知した場合、該部分を誇張して表示し、作業機械の旋回状態を表示910する。更に、表示を拡大906したり、標準表示907するI/Fを設定しても良い。   FIG. 22 is an example of a screen displayed on the display device 900 (an example of a screen for monitoring a wide surrounding area when the front work machine has a long tip), and is an example when an obstacle is detected. . The obstacle mark 905 is superimposed on the obstacle 538 combined by the combined image composition unit 500, and the danger range 905 is superimposed. Further, at the bottom of the screen, an obstacle detection is displayed so that it can be easily determined which of the rear camera 901, the right side camera 902, and the left side camera 903 is detected. For example, when the rear camera 901 detects, the portion is exaggerated and displayed, and the turning state of the work machine is displayed 910. Further, an I / F for enlarging the display 906 or standard display 907 may be set.

図23は、表示装置900に表示される画面の例(フロント作業機の先端が長い場合で、周囲の広い範囲を監視する画面の例)である。作業機械の動作データ取込み部750で取り込んだ下部走行体1eの走行方向912を重畳して表示し、走行モータ3eから算出した走行速度908を表示装置900に表示する。   FIG. 23 is an example of a screen displayed on the display device 900 (an example of a screen for monitoring a wide surrounding area when the front end of the front work machine is long). The traveling direction 912 of the lower traveling body 1e captured by the operation data capturing unit 750 of the work machine is superimposed and displayed, and the traveling speed 908 calculated from the traveling motor 3e is displayed on the display device 900.

これにより、運転員に対して、撮影シーンが狭くても広くても、危険発生時に作業機械と周囲の障害物や人物の存在や走行方向や速度の把握が可能となり、操作の適否判断が的確かつ瞬時に情報提示することができるので、運転員は作業効率を低下させることなく障害物や侵入者の存在を的確かつ効果的に把握することができ、作業効率と安全性が向上する。   This makes it possible for the operator to understand the presence of the work machine and surrounding obstacles and people, the direction of travel, and the speed when danger occurs, regardless of whether the shooting scene is narrow or wide. Moreover, since information can be presented instantly, the operator can accurately and effectively grasp the presence of an obstacle or an intruder without lowering the work efficiency, thereby improving work efficiency and safety.

以上説明したように、本実施形態によれば、結合位置算出手段が、カメラの設置状態、作業機械の姿勢データ取込み手段で取り込んだフロント作業機の先端位置のデータにしたがって、例えばフロント作業機の先端位置がカメラから遠方の場合は、結合位置をカメラの近くに設定するので、作業機械周囲の広い範囲を粗くざっと把握できる上、遠方の作業員も違和感無く表示することができる。   As described above, according to the present embodiment, the coupling position calculating means, for example, according to the front position of the front work machine, which is captured by the camera installation state and the work machine attitude data fetch means, for example, the front work machine When the tip position is far from the camera, the coupling position is set near the camera, so that a wide range around the work machine can be roughly grasped, and distant workers can also display without discomfort.

また、フロント作業機の先端位置のデータがカメラの近くである場合は、結合位置をカメラの遠くにするので、作業機械周囲の狭い範囲が詳細に把握でき、近くの作業員を鮮明に表示することができる。   In addition, when the data of the front end position of the front work machine is close to the camera, the coupling position is far from the camera, so that a narrow range around the work machine can be grasped in detail, and nearby workers are clearly displayed. be able to.

更に、動作データ取込み手段で作業機械の掘削、旋回、走行のデータを取り込み、旋回の場合は結合位置をカメラから遠方にし、走行の場合は結合位置をカメラから近くにし、更に、走行速度に応じて、速い場合は更に近くにし、遅い場合は、遠くにするように設定する。このため、結合位置がカメラから遠方の場合、作業機械周囲の狭い範囲が詳細に把握でき、近くの作業員を鮮明に表示することができる。また、結合位置をカメラの近くにする場合、作業機械周囲の広い範囲を粗くざっと把握できる上、遠方の作業員も違和感無く表示することができる。   In addition, data on excavation, turning, and traveling of the work machine is captured by the operation data capturing means. In the case of turning, the coupling position is far from the camera, in the case of traveling, the coupling position is close to the camera, and further according to the traveling speed. If it is fast, set it closer. If it is slow, set it far. For this reason, when the coupling position is far from the camera, a narrow range around the work machine can be grasped in detail, and nearby workers can be clearly displayed. Further, when the coupling position is close to the camera, a wide range around the work machine can be roughly grasped, and distant workers can be displayed without a sense of incongruity.

また、上方視点の模擬作業機械の周りに結合画像作成手段で作成した結合画像を配置して合成画像を作成し、この合成画像に、合成画像障害物検知手段で検知した障害物の検知情報を重畳して表示し、また、姿勢データ取込み手段で取り込んだフロント作業機の先端位置のデータを用いて危険範囲を重畳して表示し、また、動作データ取込み手段で取り込んだ旋回範囲、走行予想軌跡、あるいは走行ガイドラインを重畳して表示するおとができる。このため、撮影シーンが狭くても広くても、また、障害物や人物の存在有無に係わらず、また、存在する場合シーン内の位置に係わらず、違和感の無い自然な結合画像を表示することができる。また、危険発生時に作業機械と周囲の障害物や人物の存在の把握が一目瞭然となり、作業機械の操作の適否判断を迅速かつ的確に行うことができ、作業効率と安全性が向上する。   In addition, a combined image created by the combined image creating unit is arranged around the simulation work machine of the upper viewpoint to create a composite image, and obstacle detection information detected by the composite image obstacle detecting unit is added to the composite image. The danger range is superimposed and displayed using the data of the tip position of the front work machine captured by the posture data capture means, the turning range captured by the motion data capture means, and the predicted travel path Or, you can display the driving guidelines superimposed. For this reason, it is possible to display a natural combined image with no sense of incongruity regardless of whether the shooting scene is narrow or wide, regardless of the presence or absence of an obstacle or a person, and when it exists, regardless of the position in the scene. Can do. In addition, when the danger occurs, it becomes obvious at a glance that the work machine and the surrounding obstacles and persons are present, and it is possible to quickly and accurately determine whether or not the work machine is operated, thereby improving work efficiency and safety.

このように、本実施形態によれば、撮影シーンが狭くても広くても、また、物体がシーン内のどこに存在しても違和感の無い自然な結合画像を運転者に提示することができる。このため、作業機械の周囲の障害物や人物の存在の把握が一目瞭然となり、作業機械の操作の適否判断を迅速かつ的確に行うことができる。   As described above, according to the present embodiment, it is possible to present the driver with a natural combined image that has no sense of incongruity regardless of whether the shooting scene is narrow or wide, or where an object is present in the scene. For this reason, the presence of obstacles and persons around the work machine can be understood at a glance, and whether or not the operation of the work machine is appropriate can be determined quickly and accurately.

1A フロント作業機
1B 車体
1a ブーム
1b アーム
1c バケット
1d 上部旋回体
1e 下部走行体
1f 運転室
3a〜3f 油圧アクチュエータ
8a,8b,8c 角度検出器
13a,13b,13c カメラ
20 障害物(作業員)
200 画像入力部
250 画像歪み補正部
300 俯瞰画像作成部
400 結合位置算出部
450 結合画像作成部
500 結合画像合成部
600 合成画像障害物検知部
700 作業機械姿勢データ取込み部
750 作業機械動作データ取込み部
800 表示画像生成部
900 表示装置
DESCRIPTION OF SYMBOLS 1A Front working machine 1B Car body 1a Boom 1b Arm 1c Bucket 1d Upper turning body 1e Lower traveling body 1f Driver's cab 3a-3f Hydraulic actuators 8a, 8b, 8c Angle detectors 13a, 13b, 13c Camera 20 Obstacle (worker)
200 Image input unit 250 Image distortion correction unit 300 Overhead image creation unit 400 Combined position calculation unit 450 Combined image creation unit 500 Combined image composition unit 600 Composite image obstacle detection unit 700 Work machine posture data capture unit 750 Work machine operation data capture unit 800 Display Image Generation Unit 900 Display Device

Claims (10)

作業機械に取り付けられ前記作業機械の周囲を撮影する複数のカメラからのカメラ画像をもとに前記作業機械の上方に視点を持つ俯瞰画像を作成する俯瞰画像作成部と、
作業機械の動作を判定して、前記俯瞰画像にカメラ画像を結合して結合画像を作成する際の結合位置を算出する結合位置算出部と、
前記俯瞰画像に前記カメラ画像を前記結合位置算出部が算出した位置で結合して結合画像を作成する結合画像作成部と、
結合画像作成部で作成した結合画像を合成する結合画像合成部と、
前記結合画像合成部で合成した合成画像から障害物を検出する合成画像障害物検知部と、
前記合成画像に障害物検知情報を重畳して表示する表示画像生成部を備えたことを特徴とする周囲監視装置を備えた作業機械。
An overhead image creation unit that creates an overhead image having a viewpoint above the work machine based on camera images from a plurality of cameras that are attached to the work machine and photograph the surroundings of the work machine;
A combined position calculation unit that determines the operation of the work machine and calculates a combined position when combining the camera image with the overhead image to create a combined image;
A combined image creating unit that creates a combined image by combining the camera image with the overhead image at the position calculated by the combined position calculating unit;
A combined image composition unit that combines the combined images created by the combined image creation unit;
A combined image obstacle detection unit for detecting an obstacle from the combined image combined by the combined image combining unit;
A work machine provided with a surrounding monitoring device, comprising: a display image generation unit that displays obstacle detection information superimposed on the composite image.
請求項1記載の周囲監視装置を備えた作業機械において、
前記結合位置算出部は結合位置を前記カメラの設置位置の高さから算出することを特徴とする周囲監視装置を備えた作業機械。
In the work machine provided with the surroundings monitoring device according to claim 1,
The work machine provided with a surrounding monitoring device, wherein the joint position calculation unit calculates a joint position from a height of an installation position of the camera.
請求項1記載の周囲監視装置を備えた作業機械において、
結合位置算出部は、作業機械におけるフロント作業機の先端位置データ、フロント作業機の掘削、旋回、走行を表す各作業データにしたがって結合位置を算出することを特徴とする周囲監視装置を備えた作業機械。
In the work machine provided with the surroundings monitoring device according to claim 1,
The coupling position calculation unit calculates the coupling position according to the front position data of the front work machine in the work machine, and each work data representing excavation, turning, and traveling of the front work machine. machine.
請求項3記載の周囲監視装置を備えた作業機械において、
結合位置算出部は、作業機の先端位置がカメラから遠方の場合には結合位置を近くに設定し、先端位置がカメラに近い場合には遠くに設定することを特徴とする周囲監視装置を備えた作業機械。
In the work machine provided with the surroundings monitoring device according to claim 3,
The coupling position calculation unit includes an ambient monitoring device that sets the coupling position close when the tip position of the work machine is far from the camera and sets the distance far when the tip position is close to the camera. Working machine.
請求項3記載の周囲監視装置を備えた作業機械において。
結合位置算出部は、作業データが旋回の場合は結合位置をカメラから遠方に設定し、走行の場合は、走行速度が速い場合はカメラの近くに設定し、走行速度が遅い場合は遠くに設定することを特徴とする周囲監視装置を備えた作業機械。
A work machine comprising the surrounding monitoring device according to claim 3.
The combined position calculation unit sets the combined position far from the camera when the work data is turning, sets the distance close to the camera when the traveling speed is fast, and sets the distance far when the traveling speed is slow. A working machine having a surrounding monitoring device.
請求項1記載の周囲監視装置を備えた作業機械において、
結合画像合成部は、カメラから結合位置算出部で算出した位置以内は俯瞰画像で、結合位置算出部で算出した位置以遠はカメラの撮影画像で合成したことを特徴とする周囲監視装置を備えた作業機械。
A work machine comprising the surrounding monitoring device according to claim 1,
The combined image synthesizing unit is provided with a surrounding monitoring device characterized in that the position within the position calculated by the combined position calculating unit from the camera is an overhead image, and the position calculated by the combined position calculating unit is combined with the captured image of the camera. Work machine.
請求項1記載の周囲監視装置を備えた作業機械において、
結合画像合成部は、カメラから結合位置算出部で算出した位置以内は俯瞰画像で、結合位置算出部で算出した位置以遠はカメラの撮影画像で設定し、結合位置算出部で算出した位置付近では俯瞰画像とカメラ画像を連続するように調整した画像で結合したことを特徴とする周囲監視装置を備えた作業機械。
In the work machine provided with the surroundings monitoring device according to claim 1,
The combined image composition unit sets an overhead view image within the position calculated by the combined position calculation unit from the camera, sets a distance from the position calculated by the combined position calculation unit as a captured image of the camera, and near the position calculated by the combined position calculation unit. A work machine provided with a surrounding monitoring device, wherein an overhead image and a camera image are combined with an image adjusted so as to be continuous.
請求項1記載の周囲監視装置を備えた作業機械において、
結合画像合成部は、上方視点の模擬車両の像を、俯瞰画像にカメラ画像を合成した合成画像に合成することを特徴とする周囲監視装置を備えた作業機械。
In the work machine provided with the surroundings monitoring device according to claim 1,
The combined image synthesizing unit is a work machine provided with a surrounding monitoring device, which synthesizes an image of a simulated vehicle at an upper viewpoint with a synthesized image obtained by synthesizing a camera image with an overhead image.
請求項1記載の周囲監視装置を備えた作業機械において、
表示画像生成部はフロント作業機先端位置データを用いて作成した危険作業範囲、フロント作業機の旋回範囲、および走行予想軌跡を重畳して表示することを特徴とする周囲監視装置を備えた作業機械。
In the work machine provided with the surroundings monitoring device according to claim 1,
A work machine having a surroundings monitoring device characterized in that the display image generation unit superimposes and displays a dangerous work range created using front work machine tip position data, a turning range of the front work machine, and a predicted travel path .
作業機械の周囲を方向別に撮影する複数のカメラからのカメラ画像をもとに前記作業機械の上方に視点を持つ俯瞰画像を作成する俯瞰画像作成部と、
作業機械の動作を判定して、前記俯瞰画像にそれぞれ方向別のカメラ画像を結合して結合画像を作成する際の結合位置を算出する結合位置算出部と、
前記俯瞰画像に前記カメラ画像を前記結合位置算出部が算出した位置で結合して方向別の結合画像を作成する結合画像作成部と、
結合画像作成部で作成した方向別の結合画像を合成する結合画像合成部と、
前記結合画像合成部で合成した合成画像から障害物を検出する合成画像障害物検知部と、
前記合成画像に障害物検知情報を重畳して表示する表示画像生成部を備えたことを特徴とする作業機械の周囲監視装置。
An overhead image creation unit that creates an overhead image having a viewpoint above the work machine based on camera images from a plurality of cameras that capture the periphery of the work machine according to direction;
A combination position calculation unit that determines the operation of the work machine and calculates a combination position when a combined image is created by combining camera images in different directions with the overhead image;
A combined image creating unit that creates a combined image for each direction by combining the camera image with the overhead image at the position calculated by the combined position calculating unit;
A combined image composition unit that combines the combined images for each direction created by the combined image creation unit;
A combined image obstacle detection unit for detecting an obstacle from the combined image combined by the combined image combining unit;
A work machine surroundings monitoring device comprising a display image generation unit that displays obstacle detection information superimposed on the composite image.
JP2009047989A 2009-03-02 2009-03-02 Work machine with ambient monitoring device Active JP4951639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009047989A JP4951639B2 (en) 2009-03-02 2009-03-02 Work machine with ambient monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009047989A JP4951639B2 (en) 2009-03-02 2009-03-02 Work machine with ambient monitoring device

Publications (2)

Publication Number Publication Date
JP2010204821A true JP2010204821A (en) 2010-09-16
JP4951639B2 JP4951639B2 (en) 2012-06-13

Family

ID=42966260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009047989A Active JP4951639B2 (en) 2009-03-02 2009-03-02 Work machine with ambient monitoring device

Country Status (1)

Country Link
JP (1) JP4951639B2 (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012082608A (en) * 2010-10-08 2012-04-26 Sumitomo (Shi) Construction Machinery Co Ltd Monitoring device of work machine
WO2012169361A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
WO2012169353A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
WO2012169354A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Device for monitoring perimeter of work vehicle
WO2012169352A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
JP2013034142A (en) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd Peripheral image display device
WO2013105597A1 (en) * 2012-01-12 2013-07-18 日立建機株式会社 Periphery monitoring device for self-propelled industrial machine
JP2013142228A (en) * 2012-01-10 2013-07-22 Hitachi Constr Mach Co Ltd Travel support device of working machine
WO2013183691A1 (en) * 2012-06-06 2013-12-12 日立建機株式会社 Operation assist apparatus for operating machine
WO2014017620A1 (en) * 2012-07-27 2014-01-30 日立建機株式会社 Environment monitoring device for operating machinery
US8768583B2 (en) 2012-03-29 2014-07-01 Harnischfeger Technologies, Inc. Collision detection and mitigation systems and methods for a shovel
JP2014123955A (en) * 2014-01-17 2014-07-03 Sumitomo Heavy Ind Ltd Shovel
JP2015055095A (en) * 2013-09-11 2015-03-23 住友建機株式会社 Construction machine
JP2015065515A (en) * 2013-09-24 2015-04-09 日立建機株式会社 System for detecting moving object around vehicle
KR101518361B1 (en) * 2014-05-27 2015-05-15 주식회사 피엘케이 테크놀로지 Method of monitoring around view preventing collision of operation vehicle, apparatus performing the same and storage media storing the same
EP2937811A1 (en) * 2014-04-25 2015-10-28 Hitachi Construction Machinery Co., Ltd. Vehicle peripheral obstacle notification system
JP2016113892A (en) * 2015-12-28 2016-06-23 住友重機械工業株式会社 Shovel
JP2016118912A (en) * 2014-12-19 2016-06-30 日立建機株式会社 Surrounding monitoring device of work machine
US9432634B2 (en) 2010-11-16 2016-08-30 Sumitomo Heavy Industries, Ltd. Image generation device and operation support system
US20160273195A1 (en) * 2015-03-16 2016-09-22 Doosan Infracore Co., Ltd. Method of displaying a dead zone of a construction machine and apparatus for performing the same
WO2016157462A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
JP6068710B1 (en) * 2016-05-30 2017-01-25 株式会社ネクスコ・エンジニアリング北海道 Overhead image adjustment apparatus and overhead image adjustment program
US20170072857A1 (en) * 2012-06-08 2017-03-16 Hitachi Construction Machinery Co., Ltd. Display device for self-propelled industrial machine
JP2017085370A (en) * 2015-10-28 2017-05-18 住友建機株式会社 Shovel
US9852494B2 (en) 2015-06-01 2017-12-26 Toshiba Alpine Automotive Technology Corporation Overhead image generation apparatus
JP2018035669A (en) * 2017-11-14 2018-03-08 住友重機械工業株式会社 Shovel and surrounding image generating device of the same
JP2018085685A (en) * 2016-11-25 2018-05-31 株式会社Jvcケンウッド Overview video generation device, overview video generation system, overview video generation method, and program
US10017112B2 (en) 2015-03-03 2018-07-10 Hitachi Construction Machinery Co., Ltd. Surroundings monitoring device of vehicle
US10145087B2 (en) 2014-07-25 2018-12-04 Hitachi Construction Machinery Co., Ltd. Surroundings display device for swing working machine
WO2019066693A1 (en) * 2017-09-26 2019-04-04 Cargotec Patenter Ab Operator assistance system and a method in relation to the system
JP2019163691A (en) * 2019-06-06 2019-09-26 住友建機株式会社 Shovel
JP2020002773A (en) * 2019-09-11 2020-01-09 住友重機械工業株式会社 Shovel and shovel peripheral image generation device
US10650251B2 (en) 2014-02-17 2020-05-12 Hitachi Construction Machinery Co., Ltd. Monitoring image display device of industrial machine
JP2020142880A (en) * 2019-03-05 2020-09-10 株式会社三井E&Sマシナリー Operation supporting system of crane and operation supporting method
JP2021022804A (en) * 2019-07-26 2021-02-18 シンフォニアテクノロジー株式会社 Work machine peripheral monitoring system, and work machine peripheral monitoring program
WO2021075321A1 (en) * 2019-10-18 2021-04-22 ソニー株式会社 Image capture apparatus, electronic device and image capture method
CN114026295A (en) * 2019-07-18 2022-02-08 株式会社小松制作所 Display system for work vehicle and display method for work vehicle
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
WO2022114005A1 (en) * 2020-11-27 2022-06-02 日立建機株式会社 Information display system for work machine
US20220372732A1 (en) * 2019-11-07 2022-11-24 Kobelco Construction Machinery Co., Ltd. Periphery monitoring device for working machine

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949685B2 (en) 2019-07-22 2021-03-16 Caterpillar Inc. Excluding a component of a work machine from a video frame based on motion information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311868A (en) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery visually recognizing apparatus
JP2008248613A (en) * 2007-03-30 2008-10-16 Hitachi Constr Mach Co Ltd Work machine periphery monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311868A (en) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery visually recognizing apparatus
JP2008248613A (en) * 2007-03-30 2008-10-16 Hitachi Constr Mach Co Ltd Work machine periphery monitoring device

Cited By (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012082608A (en) * 2010-10-08 2012-04-26 Sumitomo (Shi) Construction Machinery Co Ltd Monitoring device of work machine
US9432634B2 (en) 2010-11-16 2016-08-30 Sumitomo Heavy Industries, Ltd. Image generation device and operation support system
JP5587499B2 (en) * 2011-06-07 2014-09-10 株式会社小松製作所 Work vehicle perimeter monitoring device
AU2012268478B2 (en) * 2011-06-07 2014-02-27 Komatsu Ltd. Surrounding area monitoring device for work vehicle
JPWO2012169352A1 (en) * 2011-06-07 2015-02-23 株式会社小松製作所 Work vehicle perimeter monitoring device
JP2012254650A (en) * 2011-06-07 2012-12-27 Komatsu Ltd Periphery monitoring device of work vehicle
JP2012256113A (en) * 2011-06-07 2012-12-27 Komatsu Ltd Periphery monitoring device for work vehicle
JP2012256960A (en) * 2011-06-07 2012-12-27 Komatsu Ltd Periphery monitoring device for working vehicle
CN103098112A (en) * 2011-06-07 2013-05-08 株式会社小松制作所 Work vehicle vicinity monitoring device
AU2012268477B2 (en) * 2011-06-07 2014-10-09 Komatsu Ltd. Surrounding area monitoring device for work vehicle
CN103140378A (en) * 2011-06-07 2013-06-05 株式会社小松制作所 Surrounding area monitoring device for work vehicle
CN103155552A (en) * 2011-06-07 2013-06-12 株式会社小松制作所 Work vehicle vicinity monitoring device
US9597997B2 (en) 2011-06-07 2017-03-21 Komatsu Ltd. Work vehicle periphery monitoring apparatus
WO2012169354A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Device for monitoring perimeter of work vehicle
US9497422B2 (en) 2011-06-07 2016-11-15 Komatsu Ltd. Perimeter monitoring device for work vehicle
CN103098112B (en) * 2011-06-07 2016-10-12 株式会社小松制作所 The periphery monitoring apparatus of working truck
US10321097B2 (en) 2011-06-07 2019-06-11 Komatsu Ltd. Perimeter monitoring device for work vehicle
WO2012169361A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
WO2012169352A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
AU2012268476B2 (en) * 2011-06-07 2014-05-15 Komatsu Ltd. Perimeter monitoring device for work vehicle
WO2012169353A1 (en) * 2011-06-07 2012-12-13 株式会社小松製作所 Work vehicle vicinity monitoring device
CN103140378B (en) * 2011-06-07 2015-11-25 株式会社小松制作所 The periphery monitoring apparatus of working truck
US8982212B2 (en) 2011-06-07 2015-03-17 Komatsu Ltd. Surrounding area monitoring device for work vehicle
JP2013034142A (en) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd Peripheral image display device
JP2013142228A (en) * 2012-01-10 2013-07-22 Hitachi Constr Mach Co Ltd Travel support device of working machine
JPWO2013105597A1 (en) * 2012-01-12 2015-05-11 日立建機株式会社 Ambient monitoring equipment for self-propelled industrial machines
WO2013105597A1 (en) * 2012-01-12 2013-07-18 日立建機株式会社 Periphery monitoring device for self-propelled industrial machine
US8768583B2 (en) 2012-03-29 2014-07-01 Harnischfeger Technologies, Inc. Collision detection and mitigation systems and methods for a shovel
US9598836B2 (en) 2012-03-29 2017-03-21 Harnischfeger Technologies, Inc. Overhead view system for a shovel
US9115482B2 (en) 2012-03-29 2015-08-25 Harnischfeger Technologies, Inc. Collision detection and mitigation systems and methods for a shovel
JP2013253397A (en) * 2012-06-06 2013-12-19 Hitachi Constr Mach Co Ltd Operation support device for work machine
WO2013183691A1 (en) * 2012-06-06 2013-12-12 日立建機株式会社 Operation assist apparatus for operating machine
US20170072857A1 (en) * 2012-06-08 2017-03-16 Hitachi Construction Machinery Co., Ltd. Display device for self-propelled industrial machine
JP2014025272A (en) * 2012-07-27 2014-02-06 Hitachi Constr Mach Co Ltd Circumference monitoring device of work machine
WO2014017620A1 (en) * 2012-07-27 2014-01-30 日立建機株式会社 Environment monitoring device for operating machinery
US9776566B2 (en) 2012-07-27 2017-10-03 Hitachi Construction Machinery Co., Ltd. Environment monitoring device for operating machinery
JP2015055095A (en) * 2013-09-11 2015-03-23 住友建機株式会社 Construction machine
JP2015065515A (en) * 2013-09-24 2015-04-09 日立建機株式会社 System for detecting moving object around vehicle
JP2014123955A (en) * 2014-01-17 2014-07-03 Sumitomo Heavy Ind Ltd Shovel
US10650251B2 (en) 2014-02-17 2020-05-12 Hitachi Construction Machinery Co., Ltd. Monitoring image display device of industrial machine
EP2937811A1 (en) * 2014-04-25 2015-10-28 Hitachi Construction Machinery Co., Ltd. Vehicle peripheral obstacle notification system
US9463741B2 (en) 2014-04-25 2016-10-11 Hitachi Construction Machinery Co., Ltd. Vehicle peripheral obstacle notification system
KR101518361B1 (en) * 2014-05-27 2015-05-15 주식회사 피엘케이 테크놀로지 Method of monitoring around view preventing collision of operation vehicle, apparatus performing the same and storage media storing the same
US10145087B2 (en) 2014-07-25 2018-12-04 Hitachi Construction Machinery Co., Ltd. Surroundings display device for swing working machine
JP2016118912A (en) * 2014-12-19 2016-06-30 日立建機株式会社 Surrounding monitoring device of work machine
US10017112B2 (en) 2015-03-03 2018-07-10 Hitachi Construction Machinery Co., Ltd. Surroundings monitoring device of vehicle
US20160273195A1 (en) * 2015-03-16 2016-09-22 Doosan Infracore Co., Ltd. Method of displaying a dead zone of a construction machine and apparatus for performing the same
US10060098B2 (en) * 2015-03-16 2018-08-28 Doosan Infracore Co., Ltd. Method of displaying a dead zone of a construction machine and apparatus for performing the same
WO2016158255A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
JPWO2016158255A1 (en) * 2015-03-31 2017-07-20 株式会社小松製作所 Work machine periphery monitoring device
WO2016157462A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
US9852494B2 (en) 2015-06-01 2017-12-26 Toshiba Alpine Automotive Technology Corporation Overhead image generation apparatus
JP2017085370A (en) * 2015-10-28 2017-05-18 住友建機株式会社 Shovel
JP2016113892A (en) * 2015-12-28 2016-06-23 住友重機械工業株式会社 Shovel
JP2017216489A (en) * 2016-05-30 2017-12-07 株式会社ネクスコ・エンジニアリング北海道 Overhead image adjustment device and overhead image adjustment program
JP6068710B1 (en) * 2016-05-30 2017-01-25 株式会社ネクスコ・エンジニアリング北海道 Overhead image adjustment apparatus and overhead image adjustment program
JP2018085685A (en) * 2016-11-25 2018-05-31 株式会社Jvcケンウッド Overview video generation device, overview video generation system, overview video generation method, and program
WO2018096792A1 (en) * 2016-11-25 2018-05-31 株式会社Jvcケンウッド Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
WO2019066693A1 (en) * 2017-09-26 2019-04-04 Cargotec Patenter Ab Operator assistance system and a method in relation to the system
JP2018035669A (en) * 2017-11-14 2018-03-08 住友重機械工業株式会社 Shovel and surrounding image generating device of the same
JP2020142880A (en) * 2019-03-05 2020-09-10 株式会社三井E&Sマシナリー Operation supporting system of crane and operation supporting method
JP2019163691A (en) * 2019-06-06 2019-09-26 住友建機株式会社 Shovel
CN114026295A (en) * 2019-07-18 2022-02-08 株式会社小松制作所 Display system for work vehicle and display method for work vehicle
JP2021022804A (en) * 2019-07-26 2021-02-18 シンフォニアテクノロジー株式会社 Work machine peripheral monitoring system, and work machine peripheral monitoring program
JP7332868B2 (en) 2019-07-26 2023-08-24 シンフォニアテクノロジー株式会社 Working Machine Surrounding Monitoring System, Working Machine Surrounding Monitoring Program
JP2020002773A (en) * 2019-09-11 2020-01-09 住友重機械工業株式会社 Shovel and shovel peripheral image generation device
WO2021075321A1 (en) * 2019-10-18 2021-04-22 ソニー株式会社 Image capture apparatus, electronic device and image capture method
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
US20220372732A1 (en) * 2019-11-07 2022-11-24 Kobelco Construction Machinery Co., Ltd. Periphery monitoring device for working machine
EP4043285A4 (en) * 2019-11-07 2022-11-30 Kobelco Construction Machinery Co., Ltd. Periphery monitoring device for working machine
WO2022114005A1 (en) * 2020-11-27 2022-06-02 日立建機株式会社 Information display system for work machine

Also Published As

Publication number Publication date
JP4951639B2 (en) 2012-06-13

Similar Documents

Publication Publication Date Title
JP4951639B2 (en) Work machine with ambient monitoring device
JP4847913B2 (en) Work machine periphery monitoring device
JP6545430B2 (en) Shovel
JP5227841B2 (en) Ambient monitoring device
KR101751405B1 (en) Work machine peripheral monitoring device
JP5750344B2 (en) Ambient monitoring device for work equipment
JP6456584B2 (en) Perimeter monitoring equipment for work machines
JP6052881B2 (en) Perimeter monitoring equipment for work machines
JP6029306B2 (en) Perimeter monitoring equipment for work machines
KR101859229B1 (en) Apparatus and method for displaying operation guide information of construction equipment
WO2012172923A1 (en) Vehicle periphery monitoring device
JP5128566B2 (en) Ambient image presentation device and operation support system
JP5495071B2 (en) Vehicle periphery monitoring device
WO2015198410A1 (en) Outside recognition device
JP2019157497A (en) Monitoring system, monitoring method, and monitoring program
JP2019060228A (en) Periphery monitoring device for work machine
JP6290497B2 (en) Excavator
JP5500392B2 (en) Vehicle periphery monitoring device
JP6420432B2 (en) Excavator
JP2018197493A (en) Shovel
JP6602936B2 (en) Excavator
JP6301536B2 (en) Excavator
JP6391656B2 (en) Peripheral monitoring device for work machine and work machine
JP7257357B2 (en) Excavators and systems for excavators
JP7263290B2 (en) Excavators and systems for excavators

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4951639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150