JP2021001472A - Steering support system for construction machine, steering support method for construction machine, and construction machine - Google Patents

Steering support system for construction machine, steering support method for construction machine, and construction machine Download PDF

Info

Publication number
JP2021001472A
JP2021001472A JP2019115316A JP2019115316A JP2021001472A JP 2021001472 A JP2021001472 A JP 2021001472A JP 2019115316 A JP2019115316 A JP 2019115316A JP 2019115316 A JP2019115316 A JP 2019115316A JP 2021001472 A JP2021001472 A JP 2021001472A
Authority
JP
Japan
Prior art keywords
image
arm mechanism
unit
image sensor
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019115316A
Other languages
Japanese (ja)
Inventor
岩崎 仁
Hitoshi Iwasaki
仁 岩崎
富雄 志垣
Tomio Shigaki
富雄 志垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
Original Assignee
Nabtesco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nabtesco Corp filed Critical Nabtesco Corp
Priority to JP2019115316A priority Critical patent/JP2021001472A/en
Priority to KR1020200058111A priority patent/KR20200145671A/en
Priority to CN202010435806.9A priority patent/CN112112202B/en
Publication of JP2021001472A publication Critical patent/JP2021001472A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/30Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom
    • E02F3/32Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom working downwardly and towards the machine, e.g. with backhoes
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/425Drive systems for dipper-arms, backhoes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a steering support system for a construction machine capable of reducing a burden on an operator.SOLUTION: A steering support system 1 comprises an acquisition section 10, a processing section 20, and a display section 50. The acquisition section 10 acquires image data of a dead angle Az from a cab 32 formed by an arm mechanism 48 which deforms according to a steering. The processing section 20 forms perspective image data in which the dead angle Az is seen from the cab 32 through the arm mechanism 48 on the basis of the image data. The display section 50 displays the perspective image between the cab 32 and the arm mechanism 48.SELECTED DRAWING: Figure 2

Description

本発明は、建設機械用操縦支援システム、建設機械用操縦支援方法および建設機械に関する。 The present invention relates to a maneuvering support system for construction machinery, a maneuvering support method for construction machinery, and a construction machine.

カメラで撮影した映像を表示するモニタを備える作業機械が知られている。例えば、特許文献1には、基礎構造体と、運転室を有する旋回体と、作業腕と、ブレーカと、カメラと、運転室の床に設けたモニタとを備えた作業機械が記載されている。この作業機械は、運転室の内側に表示面を向けてモニタを配置し、モニタにその背面側の床下領域を撮影するカメラの映像を表示する。 Work machines equipped with a monitor for displaying images taken by a camera are known. For example, Patent Document 1 describes a work machine including a basic structure, a swivel body having a driver's cab, a work arm, a breaker, a camera, and a monitor provided on the floor of the driver's cab. .. In this work machine, a monitor is arranged with the display surface facing inside the driver's cab, and the image of the camera that captures the underfloor area on the back side of the monitor is displayed on the monitor.

特開2017−145649号公報JP-A-2017-145649

本発明者らは、油圧等の動力で駆動されるブーム・アームとアタッチメントとを備える建設機械について、以下の認識を得た。 The present inventors have obtained the following recognition about a construction machine provided with a boom arm and an attachment driven by power such as flood control.

ある建設機械は、動力を利用してブームやアームなどの腕機構を駆動し、腕機構に取り付けられたバケット等のアタッチメントを動かして所定の作業を行う。この機械の操縦者は、前方作業範囲を注意深く確認しながら操縦する必要がある。しかし、操縦者の前方視界は腕機構により遮られ大きな死角が存在する。この死角については、操縦者は身を乗り出すなど大きく姿勢を変えながら確認する必要があり多大な手間がかかる。このことは、操縦者にとって大きな負担であり、作業効率の低下の要因となっている。 A construction machine uses power to drive an arm mechanism such as a boom or an arm, and moves an attachment such as a bucket attached to the arm mechanism to perform a predetermined work. The operator of this machine needs to operate while carefully checking the forward working range. However, the front view of the pilot is blocked by the arm mechanism and there is a large blind spot. It takes a lot of time and effort for the pilot to check this blind spot while changing his / her posture, such as leaning forward. This puts a heavy burden on the operator and causes a decrease in work efficiency.

床や天井付近にモニタを設けることも考えられるが、このモニタの表示は実視界とのズレが大きく操縦者に大きな違和感を与える。また、前方と床や天井付近のモニタとの間で頻繁に視線を変更する必要があり、かえって操縦者の負担を増やす。 It is conceivable to install a monitor near the floor or ceiling, but the display on this monitor has a large deviation from the actual field of view, giving the operator a great sense of discomfort. In addition, it is necessary to frequently change the line of sight between the front and the monitor near the floor or ceiling, which rather increases the burden on the operator.

これらの観点で、特許文献1に記載の作業機械では、腕機構によって形成される死角について考慮されているとはいえない。 From these viewpoints, it cannot be said that the work machine described in Patent Document 1 considers the blind spot formed by the arm mechanism.

本発明は、こうした課題に鑑みてなされたものであり、操縦者の負担を軽減可能な建設機械用操縦支援システムを提供することを目的の一つとしている。 The present invention has been made in view of these problems, and one object of the present invention is to provide a maneuvering support system for construction machinery that can reduce the burden on the operator.

上記課題を解決するために、本発明のある態様の建設機械用操縦支援システムは、操縦に応じて変形する腕機構によって形成される操縦席からの死角の画像のデータを取得する取得部と、画像のデータを基に腕機構を透かして死角を操縦席から見た透視画像のデータを生成する処理部と、操縦席と腕機構との間に透視画像を表示する表示部とを備える。 In order to solve the above problems, the maneuvering support system for construction machinery according to an aspect of the present invention includes an acquisition unit that acquires image data of a blind spot from the cockpit formed by an arm mechanism that deforms in response to maneuvering. It is provided with a processing unit that generates data of a perspective image of a blind spot viewed from the driver's seat through the arm mechanism based on image data, and a display unit that displays a perspective image between the driver's seat and the arm mechanism.

なお、以上の任意の組み合わせや、本発明の構成要素や表現を方法、装置、プログラム、プログラムを記録した一時的なまたは一時的でない記憶媒体、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above, and those in which the components and expressions of the present invention are replaced with each other between methods, devices, programs, temporary or non-temporary storage media on which programs are recorded, systems, and the like are also used. It is effective as an aspect of the present invention.

本発明によれば、操縦者の負担を軽減可能な建設機械用操縦支援システムを提供できる。 According to the present invention, it is possible to provide a maneuvering support system for construction machinery that can reduce the burden on the operator.

第1実施形態に係る建設機械用操縦支援システムを概略的に示す側面図である。It is a side view which shows typically the operation support system for construction machinery which concerns on 1st Embodiment. 図1の操縦支援システムを概略的に示す平面図である。It is a top view which shows typically the maneuvering support system of FIG. 図1の操縦支援システムを概略的に示すブロック図である。It is a block diagram which shows typically the maneuvering support system of FIG. 表示部を備えない比較例の操縦者の前方視界を模式的に示す図である。It is a figure which shows typically the front view of the operator of the comparative example which does not have a display part. 図1の操縦支援システムの操縦者の前方視界を模式的に示す図である。It is a figure which shows typically the front view of the operator of the operation support system of FIG. 図1の操縦支援システムの操縦者の前方視界を模式的に示す別の図である。It is another figure which shows typically the front view of the operator of the operation support system of FIG. 第2実施形態に係る建設機械の操縦支援方法を示すフローチャートである。It is a flowchart which shows the operation support method of the construction machine which concerns on 2nd Embodiment. 第1変形例に係る建設機械用操縦支援システムを概略的に示す側面図である。It is a side view which shows typically the maneuvering support system for construction machinery which concerns on 1st modification. 図8の操縦支援システムを概略的に示す平面図である。It is a top view which shows typically the maneuvering support system of FIG.

以下、本発明を好適な実施形態をもとに各図面を参照しながら説明する。実施形態および変形例では、同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。また、各図面において実施形態を説明する上で重要ではない部材の一部は省略して表示する。 Hereinafter, the present invention will be described with reference to each drawing based on a preferred embodiment. In the embodiments and modifications, the same or equivalent components and members are designated by the same reference numerals, and redundant description will be omitted as appropriate. In addition, the dimensions of the members in each drawing are shown enlarged or reduced as appropriate for easy understanding. In addition, some of the members that are not important for explaining the embodiment in each drawing are omitted and displayed.

また、第1、第2などの序数を含む用語は多様な構成要素を説明するために用いられるが、この用語は一つの構成要素を他の構成要素から区別する目的でのみ用いられ、この用語によって構成要素が限定されるものではない。 Also, terms including ordinal numbers such as 1st and 2nd are used to describe various components, but this term is used only for the purpose of distinguishing one component from other components. The components are not limited by.

[第1実施形態]
図面を参照して、本発明の第1実施形態に係る建設機械用操縦支援システム1の構成について説明する。図1は、第1実施形態に係る建設機械用操縦支援システム1を概略的に示す側面図である。図2は、操縦支援システム1を概略的に示す平面図である。図3は、操縦支援システム1を概略的に示すブロック図である。
[First Embodiment]
The configuration of the operation support system 1 for construction machinery according to the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a side view schematically showing the operation support system 1 for construction machinery according to the first embodiment. FIG. 2 is a plan view schematically showing the maneuvering support system 1. FIG. 3 is a block diagram schematically showing the maneuvering support system 1.

操縦支援システム1は、取得部10と、処理部20と、表示部50とを備え、建設機械100の操縦を支援する。処理部20と、表示部50とは操縦支援装置30を構成する。 The maneuvering support system 1 includes an acquisition unit 10, a processing unit 20, and a display unit 50, and supports the operation of the construction machine 100. The processing unit 20 and the display unit 50 constitute a maneuvering support device 30.

本実施形態の建設機械100は、バケット46を移動させて作業を行う建設機械である。建設機械100は、下部走行部36と、上部車体部34と、腕機構48と、バケット46とを有する。下部走行部36は無限軌道などにより所定方向に走行可能に構成される。上部車体部34は、下部走行部36に搭載されている。上部車体部34は、旋回駆動部60により下部走行部36に対して鉛直軸まわりに旋回可能に構成される。旋回駆動部60は、例えば、旋回モータ(不図示)と旋回ギア(不図示)とで構成できる。上部車体部34には、操縦室38が設けられる。 The construction machine 100 of the present embodiment is a construction machine that moves a bucket 46 to perform work. The construction machine 100 has a lower traveling portion 36, an upper vehicle body portion 34, an arm mechanism 48, and a bucket 46. The lower traveling portion 36 is configured to be able to travel in a predetermined direction by an endless track or the like. The upper vehicle body portion 34 is mounted on the lower traveling portion 36. The upper vehicle body portion 34 is configured to be rotatable around a vertical axis with respect to the lower traveling portion 36 by a turning drive unit 60. The swivel drive unit 60 can be composed of, for example, a swivel motor (not shown) and a swivel gear (not shown). A cockpit 38 is provided in the upper body portion 34.

説明の便宜上、操縦室38を後方から見て右側を「右」と、左側を「左」という。また、操縦室38の前側を「前方」と、その反対方向を「後方」という。このような方向の表記は、操縦支援システム1の使用姿勢を制限するものではない。 For convenience of explanation, the right side of the cockpit 38 is referred to as "right" and the left side is referred to as "left" when viewed from the rear. Further, the front side of the cockpit 38 is referred to as "front", and the opposite direction is referred to as "rear". The notation in such a direction does not limit the posture in which the maneuvering support system 1 is used.

腕機構48の基端部は、一例として、上部車体部34において操縦室38の右側に設けられる。腕機構48は、例えば、上部車体部34から前方に延びるブーム42とアーム44とを含む。腕機構48の先端側にはバケット46が取り付けられる。ブーム42は、上部車体部34側の基端部を中心に先端部が上下に回動可能に構成される。アーム44は、ブーム42側の基端部を中心に先端部が前後に回動可能に構成される。 The base end portion of the arm mechanism 48 is provided on the right side of the cockpit 38 in the upper vehicle body portion 34 as an example. The arm mechanism 48 includes, for example, a boom 42 and an arm 44 extending forward from the upper body portion 34. A bucket 46 is attached to the tip end side of the arm mechanism 48. The boom 42 is configured so that the tip portion can rotate up and down around the base end portion on the upper vehicle body portion 34 side. The tip of the arm 44 is configured to be rotatable back and forth around the base end on the boom 42 side.

バケット46は、アーム44側の基端部を中心に先端部が前後または上下に回動可能に構成される。ブーム42、アーム44およびバケット46は複数の油圧シリンダ56により関節部の屈曲角度を変化させて変形できる。これらが変形することによりバケット46を移動させることができる。以下、ブーム42と、アーム44と、バケット46とを総称するときはフロント部40という。 The bucket 46 is configured such that the tip end portion can be rotated back and forth or up and down around the base end portion on the arm 44 side. The boom 42, arm 44, and bucket 46 can be deformed by changing the bending angle of the joint portion by a plurality of hydraulic cylinders 56. The bucket 46 can be moved by deforming these. Hereinafter, the boom 42, the arm 44, and the bucket 46 are collectively referred to as the front portion 40.

操縦室38の内部には、操縦席32が設けられる。操縦室38の側面には、操縦席32を囲む前窓38fと、右窓38gと、左窓38hと、後窓38jとが設けられる。操縦室38の操縦席32の近傍には、複数のレバーなどによりフロント部40を操縦する操作部54が設けられる。操縦者は操縦席32において、各窓38f〜38jから周囲を目視しながら操作部54を操作してフロント部40を操縦する。 A cockpit 32 is provided inside the cockpit 38. On the side surface of the cockpit 38, a front window 38f surrounding the cockpit 32, a right window 38g, a left window 38h, and a rear window 38j are provided. In the vicinity of the cockpit 32 of the cockpit 38, an operation unit 54 for manipulating the front portion 40 by a plurality of levers or the like is provided. In the driver's seat 32, the operator operates the operation unit 54 while visually observing the surroundings from the windows 38f to 38j to operate the front unit 40.

操作部54から操作が入力されると、その操作に応じて複数の油圧バルブ58が開閉する。油圧バルブ58の開閉に応じて、油圧ポンプ(不図示)から供給される作動油が複数の油圧シリンダ56に送出される。複数の油圧シリンダ56は、作動油の送出量に応じて伸縮し、フロント部40を変形させてブーム42、アーム44およびバケット46を移動させる。また、操作部54から旋回に関する操作が入力されると、その操作に応じて旋回駆動部60が上部車体部34およびフロント部40を一体的に旋回させる。このように、ブーム42、アーム44およびバケット46は、操縦者の操縦に応じて変形と旋回とをすることによって、移動範囲を三次元的に移動できる。 When an operation is input from the operation unit 54, the plurality of hydraulic valves 58 open and close according to the operation. The hydraulic oil supplied from the hydraulic pump (not shown) is sent to the plurality of hydraulic cylinders 56 according to the opening and closing of the hydraulic valve 58. The plurality of hydraulic cylinders 56 expand and contract according to the amount of hydraulic oil delivered, and deform the front portion 40 to move the boom 42, the arm 44, and the bucket 46. Further, when an operation related to turning is input from the operation unit 54, the turning drive unit 60 integrally turns the upper vehicle body portion 34 and the front portion 40 in response to the operation. In this way, the boom 42, the arm 44, and the bucket 46 can move three-dimensionally in a moving range by deforming and turning according to the control of the operator.

先に比較例を説明する。図4は、表示部を備えない比較例の操縦者の前方視界を模式的に示す図である。図4および後述する図5では操作部54の記載を省いている。バケット46の先端部の視界を確保するように、操縦室38および操縦席32は上部車体部34の左側に寄せて配置される。この場合、バケット46の先端部周辺の視界は確保できるが、バケット46の右側の視界は腕機構48によって遮られる。つまり、図2に示すように、腕機構48は、操縦席32から見てバケット46の右側に大きな死角Azを形成する。図4に示すように、この死角Az内に人8が居ても操縦者は認識することは難しい。死角Azの近傍で作業する際は、操縦者は操縦席32から身を乗り出すなど大きく姿勢を変えながら操縦する必要があり、操縦者に多大な負担がかかる。また、操縦者が障害物を見落とす可能性もある。 A comparative example will be described first. FIG. 4 is a diagram schematically showing a front view of a pilot of a comparative example having no display unit. In FIG. 4 and FIG. 5 described later, the description of the operation unit 54 is omitted. The cockpit 38 and the cockpit 32 are arranged closer to the left side of the upper vehicle body portion 34 so as to secure the field of view of the tip portion of the bucket 46. In this case, the field of view around the tip of the bucket 46 can be secured, but the field of view on the right side of the bucket 46 is blocked by the arm mechanism 48. That is, as shown in FIG. 2, the arm mechanism 48 forms a large blind spot Az on the right side of the bucket 46 when viewed from the driver's seat 32. As shown in FIG. 4, it is difficult for the pilot to recognize even if the person 8 is in the blind spot Az. When working in the vicinity of the blind spot Az, the pilot needs to steer while changing his / her posture, such as leaning out from the cockpit 32, which imposes a heavy burden on the pilot. It is also possible for the pilot to overlook obstacles.

前方視界を補うために、操縦者の視界を遮らないように操縦室38の天井や床の近傍にディスプレイを配置し、死角Azを撮像した映像を表示することが考えられる。しかし、この場合、実視界とは大きくずれた位置に表示されるため、操縦者は、視線を実視界とディスプレイの映像との間で切り替えながら操縦することになり、操縦者の負担はかえって増大する。 In order to supplement the front view, it is conceivable to arrange a display near the ceiling or floor of the cockpit 38 so as not to block the operator's view, and display an image of the blind spot Az. However, in this case, since it is displayed at a position greatly deviated from the actual field of view, the pilot will operate while switching the line of sight between the actual field of view and the image on the display, and the burden on the pilot will increase. To do.

比較例の説明を踏まえて、本実施形態の操縦支援システム1を説明する。図5は、本実施形態の操縦者の前方視界を模式的に示す図である。本実施形態の操縦支援システム1は、操縦者の負担を軽くするために、取得部10と、処理部20と、表示部50とを備える。取得部10は、操縦者の操縦に応じて変形する腕機構48によって形成される操縦席32からの死角Azの画像のデータGpを取得する。処理部20は、画像のデータGpを基に腕機構48を透かして死角Azを操縦席32から見た透視画像Fiのデータを生成する。 The maneuvering support system 1 of the present embodiment will be described with reference to the description of the comparative example. FIG. 5 is a diagram schematically showing a front view of the operator of the present embodiment. The maneuvering support system 1 of the present embodiment includes an acquisition unit 10, a processing unit 20, and a display unit 50 in order to reduce the burden on the operator. The acquisition unit 10 acquires data Gp of an image of the blind spot Az from the driver's seat 32 formed by the arm mechanism 48 that is deformed according to the operation of the operator. Based on the image data Gp, the processing unit 20 generates the data of the perspective image Fi when the blind spot Az is seen from the cockpit 32 through the arm mechanism 48.

図5に示すように、表示部50は、操縦席32と腕機構48との間に透視画像Fiを表示する。視線がバケット46の作業領域を向く場合に、操縦者が視線の途中に腕機構48を見るとき、表示部50は、その操縦者の視界の中に透視画像Fiを表示する。図5に示すように、透視画像Fiには、死角Az内の人8が表示される。操縦者は、作業領域を注視しながら僅かな視線変更で、腕機構48を透視した死角Az内を確認できる。このため、死角Az内の人8を容易に認識でき、操縦者の操縦負担を軽くできる。 As shown in FIG. 5, the display unit 50 displays the fluoroscopic image Fi between the driver's seat 32 and the arm mechanism 48. When the operator looks at the arm mechanism 48 in the middle of the line of sight when the line of sight faces the work area of the bucket 46, the display unit 50 displays the fluoroscopic image Fi in the field of view of the operator. As shown in FIG. 5, the fluoroscopic image Fi displays the person 8 in the blind spot Az. The operator can check the inside of the blind spot Az through which the arm mechanism 48 is seen through by slightly changing the line of sight while gazing at the work area. Therefore, the person 8 in the blind spot Az can be easily recognized, and the operating burden on the operator can be reduced.

表示部50をさらに説明する。死角Azを容易に確認することができるようにするために、表示部50の表示の一部または全部が、操縦席32から見て右側の窓38gまたは前側の窓38fと重なっていてもよい。また、表示部50の表示の一部が、窓と窓の間に介在する窓柱38pと重なっていてもよい。図5の例では、操縦室38の前窓38fと右窓38gの間で縦に延びる窓柱38pに表示部50の表示の一部が重なっている。なお、窓柱はピラーと称されることがある。 The display unit 50 will be further described. In order to make it easy to confirm the blind spot Az, a part or all of the display of the display unit 50 may overlap with the window 38g on the right side or the window 38f on the front side when viewed from the cockpit 32. Further, a part of the display of the display unit 50 may overlap with the window pillar 38p interposed between the windows. In the example of FIG. 5, a part of the display of the display unit 50 overlaps the window pillar 38p extending vertically between the front window 38f of the cockpit 38 and the right window 38g. The window pillars are sometimes called pillars.

表示部50は、例えば、液晶ディスプレイや有機ELディスプレイ等であってもよい。表示部50は、位置および角度を自由に変更できるように操縦室内に支持されてもよい。 The display unit 50 may be, for example, a liquid crystal display, an organic EL display, or the like. The display unit 50 may be supported in the cockpit so that the position and angle can be freely changed.

取得部10を説明する。取得部10は、画像のデータGpを取得するために画像を撮像可能な画像センサ12を含む。画像センサ12は、死角Azを含む領域を撮像するイメージセンサとして機能する。取得部10はバケット46の作業領域を互いに異なる位置や方向から撮像する1または複数の画像センサ12を備えてもよい。本実施形態では、相互に離れて配置される第1画像センサ12aおよび第2画像センサ12bと、第1、第2画像センサ12a、12bとは別の位置に配置される第3画像センサ12cとが設けられる。図2の例では、第1画像センサおよび第2画像センサは腕機構48を挟んで左右に離間して配置されている。また、図2の例では、第3画像センサ12cは第1、第2画像センサ12a、12bの間に配置されている。図2において、符号Aa、Ab、Acは、画像センサ12a、12b、12cの撮像範囲を示す。 The acquisition unit 10 will be described. The acquisition unit 10 includes an image sensor 12 capable of capturing an image in order to acquire image data Gp. The image sensor 12 functions as an image sensor that images a region including the blind spot Az. The acquisition unit 10 may include one or more image sensors 12 that image the work area of the bucket 46 from different positions and directions. In the present embodiment, the first image sensor 12a and the second image sensor 12b arranged apart from each other, and the third image sensor 12c arranged at a position different from the first and second image sensors 12a and 12b. Is provided. In the example of FIG. 2, the first image sensor and the second image sensor are arranged so as to be separated from each other on the left and right sides of the arm mechanism 48. Further, in the example of FIG. 2, the third image sensor 12c is arranged between the first and second image sensors 12a and 12b. In FIG. 2, the symbols Aa, Ab, and Ac indicate the imaging range of the image sensors 12a, 12b, and 12c.

2つの画像センサ12a、12bが腕機構48の左右両側に配置されるので、撮像範囲Aを互いに補い合って死角Azを大幅に減らすことができる。また、その間に第3画像センサ12cが配置されるので、さらに死角Azを減らすことができる。つまり、複数の画像センサ12は、一方について死角となる領域が他方については死角にならないように配置できる。図2の例では、撮像範囲Aa、Abは、腕機構48の近傍で一部重複し、そこから右と左に広がる扇状の領域である。撮像範囲Acは、撮像範囲Aa、Abの中間領域である。 Since the two image sensors 12a and 12b are arranged on the left and right sides of the arm mechanism 48, the imaging ranges A can complement each other and the blind spot Az can be significantly reduced. Further, since the third image sensor 12c is arranged between them, the blind spot Az can be further reduced. That is, the plurality of image sensors 12 can be arranged so that the region that becomes a blind spot for one does not become a blind spot for the other. In the example of FIG. 2, the imaging ranges Aa and Ab are fan-shaped regions that partially overlap in the vicinity of the arm mechanism 48 and extend to the right and left from there. The imaging range Ac is an intermediate region between the imaging ranges Aa and Ab.

上述したように、画像センサ12a、12bは、腕機構48を挟んで左右対称に配置されている。この場合、2つのセンサの撮像結果を生成して一体化しやすい。なお、画像センサ12a、12bは、非対称に配置されてもよい。画像センサ12a、12bの撮像範囲の中心に沿った方向(以下、「視野方向」という)は、平行であってもよいし、非平行であってもよい。図2の例では、画像センサ12aの視野方向は、前後方向に対して右に傾いており、画像センサ12bの視野方向は、前後方向に対して左に傾いている。この場合、視野方向が平行な場合と比較して、撮像可能範囲を左右に広くできる。画像センサ12cの視野方向は前後方向に平行である。 As described above, the image sensors 12a and 12b are arranged symmetrically with the arm mechanism 48 in between. In this case, it is easy to generate the imaging results of the two sensors and integrate them. The image sensors 12a and 12b may be arranged asymmetrically. The directions along the center of the imaging range of the image sensors 12a and 12b (hereinafter, referred to as “visual field directions”) may be parallel or non-parallel. In the example of FIG. 2, the visual field direction of the image sensor 12a is tilted to the right with respect to the front-rear direction, and the visual field direction of the image sensor 12b is tilted to the left with respect to the front-rear direction. In this case, the imageable range can be widened to the left and right as compared with the case where the viewing directions are parallel. The visual field direction of the image sensor 12c is parallel to the front-rear direction.

図3を参照して、処理部20を説明する。図3に示す各機能ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする電子素子や機械部品などで実現でき、ソフトウェア的にはコンピュータプログラムなどによって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。 The processing unit 20 will be described with reference to FIG. Each functional block shown in FIG. 3 can be realized by an electronic element such as a computer CPU or a mechanical component in terms of hardware, and can be realized by a computer program or the like in terms of software. It depicts a functional block realized by cooperation. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by combining hardware and software.

図3に示すように、画像情報入力部20aと、姿勢識別部20bと、視線識別部20cと、操作入力部20dと、表示制御部20eと、画像生成部20fと、表示位置調整部20gと、重複画像生成部20hと、記憶部20mとを有する。画像情報入力部20aは、取得部10の画像センサ12からの画像のデータGpと、後述する操縦者センサ14の画像センサ14bからの画像情報Gsとを受け取る。画像のデータGpは主に画像生成部20fおよび重複画像生成部20hに転送され、画像情報Gsは主に姿勢識別部20bおよび視線識別部20cに転送される。姿勢識別部20bおよび視線識別部20cについては後述する。操作入力部20dは、後述する画像操作部16からの操作結果を取得して表示位置調整部20gに転送する。 As shown in FIG. 3, the image information input unit 20a, the posture identification unit 20b, the line-of-sight identification unit 20c, the operation input unit 20d, the display control unit 20e, the image generation unit 20f, and the display position adjustment unit 20g. , A duplicate image generation unit 20h and a storage unit 20m. The image information input unit 20a receives the image data Gp from the image sensor 12 of the acquisition unit 10 and the image information Gs from the image sensor 14b of the operator sensor 14 described later. The image data Gp is mainly transferred to the image generation unit 20f and the duplicate image generation unit 20h, and the image information Gs is mainly transferred to the posture identification unit 20b and the line-of-sight identification unit 20c. The posture identification unit 20b and the line-of-sight identification unit 20c will be described later. The operation input unit 20d acquires the operation result from the image operation unit 16 described later and transfers it to the display position adjustment unit 20g.

画像生成部20fは、画像のデータGpに基づいて中間画像Ciのデータを生成する。例えば、画像生成部20fは、左右の画像センサ12a、12bで取得した2つの画像のデータGpを基に腕機構48を透視した中間画像Ciのデータを生成する。中間画像Ciの中央領域は、画像センサ12cで取得した画像のデータGpで補正されてもよい。具体的には、画像生成部20fは、3つの画像のデータGpをつなぎ合わせ、重なっている部分を統合し、腕機構48の画像を除去してもよい。 The image generation unit 20f generates the data of the intermediate image Ci based on the image data Gp. For example, the image generation unit 20f generates the data of the intermediate image Ci that sees through the arm mechanism 48 based on the data Gp of the two images acquired by the left and right image sensors 12a and 12b. The central region of the intermediate image Ci may be corrected by the data Gp of the image acquired by the image sensor 12c. Specifically, the image generation unit 20f may connect the data Gp of the three images, integrate the overlapping portions, and remove the image of the arm mechanism 48.

表示制御部20eは、中間画像Ciから所定の範囲を切り出した透視画像Fiを表示部50に転送する。表示位置調整部20gは、画像操作部16からの操作結果に応じて、透視画像Fiの表示位置を調整する。具体的には、表示位置調整部20gは、表示制御部20eを制御して中間画像Ciから切り出す範囲を変更して透視画像Fiの表示位置を調整する。 The display control unit 20e transfers the fluoroscopic image Fi obtained by cutting out a predetermined range from the intermediate image Ci to the display unit 50. The display position adjusting unit 20g adjusts the display position of the fluoroscopic image Fi according to the operation result from the image operating unit 16. Specifically, the display position adjusting unit 20g adjusts the display position of the fluoroscopic image Fi by controlling the display control unit 20e to change the range cut out from the intermediate image Ci.

重複画像生成部20hは、画像のデータGpから、腕機構48の画像を識別して腕機構48に関する画像情報Riを生成する。重複画像生成部20hについては後述する。記憶部20mは、時系列的に透視画像Fi、画像情報Ri、透視画像Fiの表示位置の設定情報等を時系列的に記憶する。 The duplicate image generation unit 20h identifies the image of the arm mechanism 48 from the image data Gp and generates image information Ri regarding the arm mechanism 48. The duplicate image generation unit 20h will be described later. The storage unit 20m stores the fluoroscopic image Fi, the image information Ri, the setting information of the display position of the fluoroscopic image Fi, and the like in chronological order.

操縦者の体格や好みによって、好ましい透視画像Fiの表示位置が異なる。したがって、操縦者の体格や好みに応じて透視画像Fiの表示位置を調整できることが望ましい。一例として、表示部50の位置や角度を変更して透視画像Fiの表示位置を調整できるようにしてもよい。 The preferred display position of the fluoroscopic image Fi differs depending on the physique and preference of the operator. Therefore, it is desirable that the display position of the perspective image Fi can be adjusted according to the physique and preference of the operator. As an example, the position and angle of the display unit 50 may be changed so that the display position of the perspective image Fi can be adjusted.

透視画像Fiの表示位置を調整できるようにするために、本実施形態は、画像操作部16と表示位置調整部20gとを備える。画像操作部16は、操縦者の操作が入力される部分で、例えばレバー操作を入力可能なジョイスティックであってもよい。画像操作部16は、その操作結果を操作入力部20dに入力する。 In order to be able to adjust the display position of the fluoroscopic image Fi, the present embodiment includes an image operation unit 16 and a display position adjustment unit 20g. The image operation unit 16 is a portion where the operator's operation is input, and may be, for example, a joystick capable of inputting a lever operation. The image operation unit 16 inputs the operation result to the operation input unit 20d.

表示位置調整部20gは、入力された画像操作部16の操作結果に応じて中間画像Ciから切り出す透視画像Fiの範囲を変更する。例えば、操縦者が画像操作部16を上下左右に操作すると、表示位置調整部20gでの中間画像Ciから切り出される透視画像Fiの範囲が上下左右に変更されてもよい。この構成により、表示部50での透視画像Fiの表示位置が操縦者の操作に応じて調整される。なお、画像操作部16は、複数のスイッチで構成されてもよい。 The display position adjusting unit 20g changes the range of the fluoroscopic image Fi cut out from the intermediate image Ci according to the input operation result of the image operating unit 16. For example, when the operator operates the image operation unit 16 up / down / left / right, the range of the fluoroscopic image Fi cut out from the intermediate image Ci in the display position adjusting unit 20g may be changed up / down / left / right. With this configuration, the display position of the fluoroscopic image Fi on the display unit 50 is adjusted according to the operation of the operator. The image operation unit 16 may be composed of a plurality of switches.

操縦者の姿勢が変化したとき、好ましい透視画像Fiの表示位置は変化する。そこで、本実施形態は、操縦者センサ14と姿勢識別部20bとを備え、姿勢識別部20bの識別結果に応じて透視画像Fiの表示位置を変更するように構成される。操縦者センサ14は、操縦席32の周辺において操縦者に関する画像情報Gsを取得する。本実施形態の操縦者センサ14は、操縦席32の周辺を撮像して画像情報Gsを生成する画像センサ14bを含む。図2の例では、画像センサ14bは、操縦席32を含む撮像範囲Adを撮像するイメージセンサである。 When the attitude of the operator changes, the display position of the preferable fluoroscopic image Fi changes. Therefore, the present embodiment is configured to include the operator sensor 14 and the attitude identification unit 20b, and change the display position of the perspective image Fi according to the identification result of the attitude identification unit 20b. The pilot sensor 14 acquires image information Gs about the pilot around the driver's seat 32. The driver sensor 14 of the present embodiment includes an image sensor 14b that images the periphery of the driver's seat 32 to generate image information Gs. In the example of FIG. 2, the image sensor 14b is an image sensor that captures an imaging range Ad including the driver's seat 32.

姿勢識別部20bは、画像情報入力部20aを介して取得した画像情報Gsを分析して操縦者の姿勢変化を識別する。姿勢識別部20bは、その識別結果に応じて表示位置調整部20gを制御して透視画像Fiの表示位置を変更する。例えば、操縦者の姿勢が変化したら、表示位置調整部20gでの中間画像Ciから切り出される透視画像Fiの範囲を姿勢変化の方向と同じ方向に変化させてもよい。あるいは、表示位置調整部20gでの中間画像Ciから切り出される透視画像Fiの範囲を操縦者の姿勢変化の方向とは逆方向に変化させてもよい。つまり、表示部50は、操縦者が姿勢を上方に変えるとき、中間画像Ciの下部領域を表示するようにしてもよい。 The attitude identification unit 20b analyzes the image information Gs acquired via the image information input unit 20a to identify the attitude change of the operator. The posture identification unit 20b controls the display position adjustment unit 20g according to the identification result to change the display position of the fluoroscopic image Fi. For example, when the posture of the operator changes, the range of the perspective image Fi cut out from the intermediate image Ci in the display position adjusting unit 20g may be changed in the same direction as the posture change direction. Alternatively, the range of the perspective image Fi cut out from the intermediate image Ci by the display position adjusting unit 20g may be changed in the direction opposite to the direction of the posture change of the operator. That is, the display unit 50 may display the lower region of the intermediate image Ci when the operator changes his / her posture upward.

姿勢識別部20bは、例えば、操縦者に関する基準画像と画像情報Gsとを比較し、その比較結果に基づいて操縦者の姿勢変化を識別してもよい。操縦者に関する基準画像は、過去(例えば操縦開始時)に取得された画像情報Gsであってもよい。操縦者に関する基準画像は、記憶部20mに記憶されてもよい。 The posture identification unit 20b may, for example, compare a reference image relating to the operator with the image information Gs, and identify the attitude change of the operator based on the comparison result. The reference image regarding the operator may be image information Gs acquired in the past (for example, at the start of operation). The reference image regarding the operator may be stored in the storage unit 20 m.

操縦者の視線が変化したとき、好ましい透視画像Fiの表示位置は変化する。そこで、本実施形態は、操縦者センサ14と視線識別部20cとを備え、視線識別部20cの識別結果に応じて透視画像Fiの表示位置を変更するように構成される。 When the line of sight of the operator changes, the display position of the preferable fluoroscopic image Fi changes. Therefore, the present embodiment is configured to include the operator sensor 14 and the line-of-sight identification unit 20c, and change the display position of the fluoroscopic image Fi according to the identification result of the line-of-sight identification unit 20c.

視線識別部20cは、画像情報入力部20aを介して取得した画像情報Gsを分析して操縦者の視線変化を識別する。例えば、視線識別部20cは、操縦者の目の位置によって視線を識別してもよい。視線識別部20cは、その識別結果に応じて表示位置調整部20gを制御して透視画像Fiの表示位置を変更する。例えば、操縦者の視線が変化したら、表示位置調整部20gでの中間画像Ciから切り出される透視画像Fiの範囲を視線変化の方向と同じ方向あるいは逆方向に変化させてもよい。視線識別部20cは、例えば、操縦者に関する基準画像と画像情報Gsとを比較し、その比較結果に基づいて操縦者の視線変化を識別してもよい。 The line-of-sight identification unit 20c analyzes the image information Gs acquired via the image information input unit 20a to identify the change in the line-of-sight of the operator. For example, the line-of-sight identification unit 20c may identify the line of sight according to the position of the operator's eyes. The line-of-sight identification unit 20c controls the display position adjustment unit 20g according to the identification result to change the display position of the fluoroscopic image Fi. For example, when the line of sight of the operator changes, the range of the perspective image Fi cut out from the intermediate image Ci in the display position adjusting unit 20 g may be changed in the same direction as the direction of the line of sight change or in the opposite direction. The line-of-sight identification unit 20c may, for example, compare a reference image relating to the operator with the image information Gs, and identify the change in the line-of-sight of the operator based on the comparison result.

表示部50の画像とその周囲の画像とが不連続だと、操縦者に違和感を与えるおそれがある。そこで、本実施形態は、腕機構48に関する画像を透視画像Fiに重ねて表示部50に表示可能に構成されている。図6は、操縦者の前方視界を模式的に示す別の図であり、表示部50には腕機構48に関する画像(輪郭線48s)が重ねて表示されている。 If the image of the display unit 50 and the image around it are discontinuous, the operator may feel uncomfortable. Therefore, this embodiment is configured so that an image relating to the arm mechanism 48 can be superimposed on the fluoroscopic image Fi and displayed on the display unit 50. FIG. 6 is another view schematically showing the front view of the operator, and an image (contour line 48s) relating to the arm mechanism 48 is superimposed and displayed on the display unit 50.

具体的には、本実施形態は重複画像生成部20hを備える。重複画像生成部20hは、画像のデータGpから、腕機構48の画像を識別して腕機構48に関する画像情報Riを生成する。例えば、画像情報Riは、腕機構48の輪郭を示すものであってもよいし、腕機構48の範囲を半透明にしたものであってもよいし、腕機構48の輪郭線48sを示すものであってもよい。 Specifically, the present embodiment includes a duplicate image generation unit 20h. The duplicate image generation unit 20h identifies the image of the arm mechanism 48 from the image data Gp and generates image information Ri regarding the arm mechanism 48. For example, the image information Ri may indicate the contour of the arm mechanism 48, the range of the arm mechanism 48 may be translucent, or the contour line 48s of the arm mechanism 48 may be shown. It may be.

次に、本発明の第1実施形態に係る建設機械用操縦支援システム1の特徴を説明する。操縦支援システム1は、操縦に応じて変形する腕機構48によって形成される操縦席32からの死角Azの画像のデータGpを取得する取得部10と、画像のデータGpを基に腕機構48を透かして死角Azを操縦席32から見た透視画像Fiのデータを生成する処理部20と、操縦席32と腕機構48との間に透視画像Fiを表示する表示部50とを備える。 Next, the features of the operation support system 1 for construction machinery according to the first embodiment of the present invention will be described. The maneuvering support system 1 includes an acquisition unit 10 for acquiring image data Gp of a blind spot Az from the driver's seat 32 formed by an arm mechanism 48 that deforms in response to maneuvering, and an arm mechanism 48 based on the image data Gp. It is provided with a processing unit 20 that generates data of a perspective image Fi as seen through the blind spot Az from the driver's seat 32, and a display unit 50 that displays the perspective image Fi between the driver's seat 32 and the arm mechanism 48.

この構成によれば、視線を殆ど切り換えずに、腕機構48を透かして死角Azを確認しながら操縦できるので、操縦者の負担を軽減できる。 According to this configuration, it is possible to operate while checking the blind spot Az through the arm mechanism 48 without switching the line of sight, so that the burden on the operator can be reduced.

表示部50は、透視画像Fiに腕機構48に関する画像を重ねて表示してもよい。この場合、腕機構48と死角Azの関係を容易に確認できる。 The display unit 50 may superimpose an image related to the arm mechanism 48 on the fluoroscopic image Fi. In this case, the relationship between the arm mechanism 48 and the blind spot Az can be easily confirmed.

取得部10は、相互に離れて配置される第1画像センサおよび第2画像センサを含み、処理部20は第1画像センサおよび第2画像センサの検知結果を基に透視画像Fiのデータを生成してもよい。この場合、広範囲を撮像できるので検知結果における死角Azを減らせる。 The acquisition unit 10 includes a first image sensor and a second image sensor that are arranged apart from each other, and the processing unit 20 generates data of a perspective image Fi based on the detection results of the first image sensor and the second image sensor. You may. In this case, since a wide range can be imaged, the blind spot Az in the detection result can be reduced.

第1画像センサおよび第2画像センサは腕機構48を挟んで配置されてもよい。この場合、は腕機構48の両側の範囲を撮像できるので死角Azを減らせる。 The first image sensor and the second image sensor may be arranged with the arm mechanism 48 interposed therebetween. In this case, since the range on both sides of the arm mechanism 48 can be imaged, the blind spot Az can be reduced.

取得部10は、第1画像センサおよび第2画像センサとは別の位置に配置される第3画像センサを含み、処理部20は、第1画像センサ乃至第3画像センサの検知結果を基に透視画像Fiのデータを生成してもよい。この場合、さらに広範囲を撮像できるので検知結果の死角Azをさらに減らせる。 The acquisition unit 10 includes a third image sensor arranged at a position different from the first image sensor and the second image sensor, and the processing unit 20 is based on the detection results of the first image sensor to the third image sensor. Data of the perspective image Fi may be generated. In this case, since a wider area can be imaged, the blind spot Az of the detection result can be further reduced.

操縦支援システム1は、透視画像Fiの表示位置を調整するための表示位置調整部20gを有してもよい。この場合、操縦者に対して違和感が少ない位置に透視画像Fiを表示できる。 The maneuvering support system 1 may have a display position adjusting unit 20g for adjusting the display position of the perspective image Fi. In this case, the perspective image Fi can be displayed at a position where there is little discomfort to the operator.

操縦支援システム1は、操縦者の姿勢を識別し、識別結果に応じて透視画像Fiの表示位置を変更する姿勢識別部20bを備えてもよい。この場合、操縦者の姿勢に連動して透視画像Fiの表示位置を変更できる。操作部54から手を離さずに、姿勢を変えることにより見たい範囲を表示するように制御できる。 The maneuvering support system 1 may include a posture identification unit 20b that identifies the posture of the operator and changes the display position of the perspective image Fi according to the identification result. In this case, the display position of the perspective image Fi can be changed in conjunction with the posture of the operator. It is possible to control the display of the desired range by changing the posture without taking the hand off the operation unit 54.

操縦支援システム1は、操縦者の視線を識別し、識別結果に応じて透視画像Fiの表示位置を変更する視線識別部20cを備えてもよい。この場合、操縦者の視線に連動して透視画像Fiの表示位置を変更できる。また、操作部54を操作しながら、視線を変えることで見たい範囲を表示させることができる。
以上が第1実施形態の説明である。
The maneuvering support system 1 may include a line-of-sight identification unit 20c that identifies the line of sight of the operator and changes the display position of the fluoroscopic image Fi according to the identification result. In this case, the display position of the perspective image Fi can be changed in conjunction with the line of sight of the operator. Further, the range to be seen can be displayed by changing the line of sight while operating the operation unit 54.
The above is the description of the first embodiment.

次に、本発明の第2、第2実施形態を説明する。第2、第2実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。 Next, the second and second embodiments of the present invention will be described. In the drawings and description of the second and second embodiments, the same or equivalent components and members as those of the first embodiment are designated by the same reference numerals. The description overlapping with the first embodiment will be omitted as appropriate, and the configuration different from that of the first embodiment will be mainly described.

[第2実施形態]
本発明の第2実施形態は、建設機械用の操縦支援方法S80である。図7は、操縦支援方法S80を示すフローチャートである。この操縦支援方法S80は、操縦に応じて変形する腕機構48によって形成される操縦席32からの死角Azの画像のデータGpを取得するステップS82と、画像のデータGpを基に腕機構48を透かして死角を操縦席から見た透視画像Fiのデータを生成するステップS84と、操縦席32と腕機構48との間に透視画像Fiを表示するステップS86とを含む。ステップS82は取得部10によって実行され、ステップS84は処理部20によって実行され、ステップS86は表示部50によって実行される。
[Second Embodiment]
A second embodiment of the present invention is a maneuvering support method S80 for construction machinery. FIG. 7 is a flowchart showing the maneuvering support method S80. In this maneuvering support method S80, step S82 for acquiring the image data Gp of the blind spot Az from the driver's seat 32 formed by the arm mechanism 48 deformed according to maneuvering, and the arm mechanism 48 based on the image data Gp. It includes a step S84 of generating data of a perspective image Fi as seen through the blind spot from the driver's seat, and a step S86 of displaying a perspective image Fi between the driver's seat 32 and the arm mechanism 48. Step S82 is executed by the acquisition unit 10, step S84 is executed by the processing unit 20, and step S86 is executed by the display unit 50.

第2実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。 According to the configuration of the second embodiment, the same effects as those of the first embodiment are obtained.

[第3実施形態]
本発明の第3実施形態は、建設機械100である。この建設機械100は、操縦に応じて変形する腕機構48と、腕機構48によって形成される操縦席32からの死角Azの画像のデータGpを取得する取得部10と、画像のデータGpを基に腕機構48を透かして死角Azを操縦席32から見た透視画像Fiのデータを生成する処理部20と、操縦席32と腕機構48との間に透視画像Fiを表示する表示部50とを備える。
[Third Embodiment]
The third embodiment of the present invention is the construction machine 100. The construction machine 100 is based on an arm mechanism 48 that deforms according to maneuvering, an acquisition unit 10 that acquires image data Gp of a blind spot Az from the driver's seat 32 formed by the arm mechanism 48, and image data Gp. A processing unit 20 that generates data of a perspective image Fi when the blind spot Az is viewed from the driver's seat 32 through the arm mechanism 48, and a display unit 50 that displays a perspective image Fi between the driver's seat 32 and the arm mechanism 48. To be equipped.

建設機械100は、例えば腕機構48に取り付けられたバケット46を移動させて作業を行う機械であってもよい。建設機械100の腕機構48には、バケットの代わりにフォーク、ハンマー、クラッシャー等の多様なアタッチメントが取り付けられてもよい。第3実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。 The construction machine 100 may be, for example, a machine that moves a bucket 46 attached to an arm mechanism 48 to perform work. Various attachments such as a fork, a hammer, and a crusher may be attached to the arm mechanism 48 of the construction machine 100 instead of the bucket. According to the configuration of the third embodiment, the same effect as that of the first embodiment is obtained.

以上、本発明の実施形態の例について詳細に説明した。上述した実施形態は、いずれも本発明を実施するにあたっての具体例を示したものにすぎない。実施形態の内容は、本発明の技術的範囲を限定するものではなく、請求の範囲に規定された発明の思想を逸脱しない範囲において、構成要素の変更、追加、削除などの多くの設計変更が可能である。上述の実施形態では、このような設計変更が可能な内容に関して、「実施形態の」「実施形態では」等との表記を付して説明しているが、そのような表記のない内容に設計変更が許容されないわけではない。 The examples of the embodiments of the present invention have been described in detail above. All of the above-described embodiments are merely specific examples for carrying out the present invention. The content of the embodiment does not limit the technical scope of the present invention, and many design changes such as changes, additions, and deletions of components are made without departing from the idea of the invention defined in the claims. It is possible. In the above-described embodiment, the contents that can be changed in such a design are described with notations such as "in the embodiment" and "in the embodiment", but the contents are designed without such notations. It's not that changes aren't tolerated.

[変形例]
以下、変形例について説明する。変形例の図面および説明では、実施形態と同一または同等の構成要素、部材には、同一の符号を付する。実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
[Modification example]
Hereinafter, a modified example will be described. In the drawings and description of the modified examples, the same or equivalent components and members as those in the embodiment are designated by the same reference numerals. The description overlapping with the embodiment will be omitted as appropriate, and the configuration different from that of the first embodiment will be mainly described.

[第1変形例]
第1実施形態の説明では、画像センサ12が3つの画像センサで構成される例を示したが、本発明はこれに限定されない。画像センサ12は、1または4以上の画像センサで構成されてもよい。図8は、第1変形例に係る建設機械用操縦支援システム2を概略的に示す側面図であり、図1に対応する。図9は、第1変形例に係る操縦支援システム2を概略的に示す平面図であり、図2に対応する。第1変形例は、腕機構48の死角Azを概ね撮像可能な単一の画像センサ12dが設けられている点で第1実施形態と相違し、他の構成は同様である。したがって、画像センサ12dを重点的に説明する。
[First modification]
In the description of the first embodiment, an example in which the image sensor 12 is composed of three image sensors has been shown, but the present invention is not limited thereto. The image sensor 12 may be composed of one or four or more image sensors. FIG. 8 is a side view schematically showing the operation support system 2 for construction machinery according to the first modification, and corresponds to FIG. FIG. 9 is a plan view schematically showing the maneuvering support system 2 according to the first modification, and corresponds to FIG. The first modification is different from the first embodiment in that a single image sensor 12d capable of substantially capturing the blind spot Az of the arm mechanism 48 is provided, and the other configurations are the same. Therefore, the image sensor 12d will be mainly described.

図8、図9の例では、画像センサ12dは、腕機構48の操縦席32とは反対側において上部車体部34のカバー34c上に配置されている。つまり、画像センサ12dは、操縦席32から腕機構48を挟んで死角Az側に配置されている。図8、図9において、符号Adは、画像センサ12dの撮像範囲を示す。画像センサ12dが腕機構48の操縦席32とは反対側に配置されているので、撮像範囲Adは死角Azを殆どカバーできる。なお、画像センサ12dと上部車体部34のカバー34cとの間に台座などの介在物が設けられてもよい。 In the examples of FIGS. 8 and 9, the image sensor 12d is arranged on the cover 34c of the upper vehicle body portion 34 on the side opposite to the driver's seat 32 of the arm mechanism 48. That is, the image sensor 12d is arranged on the blind spot Az side of the driver's seat 32 with the arm mechanism 48 in between. In FIGS. 8 and 9, reference numeral Ad indicates an imaging range of the image sensor 12d. Since the image sensor 12d is arranged on the side opposite to the cockpit 32 of the arm mechanism 48, the imaging range Ad can almost cover the blind spot Az. An inclusion such as a pedestal may be provided between the image sensor 12d and the cover 34c of the upper vehicle body portion 34.

第1変形例によれば、第1実施形態と同様の作用・効果を奏する。また、上部車体部34に配置されているので、腕機構48が変形しても、操縦席32や死角Azに対する画像センサ12dの位置が変化せず、画像処理が容易になる。また、画像生成部20fは、単一の画像センサ12dによって取得された単一画像のデータGpから中間画像Ciのデータを生成するので、画像生成部20fの処理が容易になる。また、画像センサの数が少ないため、コストを抑えることができる。 According to the first modification, the same actions and effects as those of the first embodiment are obtained. Further, since it is arranged in the upper vehicle body portion 34, even if the arm mechanism 48 is deformed, the position of the image sensor 12d with respect to the driver's seat 32 and the blind spot Az does not change, and image processing becomes easy. Further, since the image generation unit 20f generates the data of the intermediate image Ci from the data Gp of the single image acquired by the single image sensor 12d, the processing of the image generation unit 20f becomes easy. Moreover, since the number of image sensors is small, the cost can be suppressed.

[その他の変形例]
透視画像Fiは、それに含まれる個々の像のコントラストが強調されたものであってもよいし、個々の像の輪郭が強調されたものであってもよいし、個々の像の輪郭線を表示するものであってもよい。特に、透視画像Fiに人の像が含まれる場合、透視画像Fiは人の像が強調されたものであってもよい。
[Other variants]
The fluoroscopic image Fi may be one in which the contrast of the individual images contained therein is emphasized, the outline of the individual images may be emphasized, or the outlines of the individual images are displayed. It may be something to do. In particular, when the perspective image Fi includes an image of a person, the perspective image Fi may be one in which the image of a person is emphasized.

第1実施形態の説明では、腕機構48が操縦室38の右側に設けられる例を示したが、本発明はこれに限定されない。例えば、腕機構は、操縦室の左側や操縦室の前方に設けられてもよい。 In the description of the first embodiment, an example in which the arm mechanism 48 is provided on the right side of the cockpit 38 is shown, but the present invention is not limited thereto. For example, the arm mechanism may be provided on the left side of the cockpit or in front of the cockpit.

第1実施形態の説明では、表示部50が操縦室38の内部に配置される例を示したが、本発明はこれに限定されない。表示部は、操縦室の外部に配置されてもよい。 In the description of the first embodiment, an example in which the display unit 50 is arranged inside the cockpit 38 has been shown, but the present invention is not limited thereto. The display may be located outside the cockpit.

第1実施形態の説明では、姿勢識別部20b、視線識別部20c、表示位置調整部20gおよび重複画像生成部20hが処理部20の内部に含まれる例を示したが、本発明はこれに限定されない。姿勢識別部20b、視線識別部20c、表示位置調整部20gおよび重複画像生成部20hのいずれかは処理部20とは別に設けられてもよい。処理部20の中に含まれる他の構成要素についても同様である。 In the description of the first embodiment, an example is shown in which the posture identification unit 20b, the line-of-sight identification unit 20c, the display position adjustment unit 20g, and the overlapping image generation unit 20h are included inside the processing unit 20, but the present invention is limited thereto. Not done. Any one of the posture identification unit 20b, the line-of-sight identification unit 20c, the display position adjustment unit 20g, and the overlapping image generation unit 20h may be provided separately from the processing unit 20. The same applies to the other components included in the processing unit 20.

第1実施形態の説明では、建設機械がバケット46を移動させて建設作業を行う例を示したが、本発明はこれに限定されず、バケット46以外のアタッチメントを備える建設機械にも適用できる。 In the description of the first embodiment, an example in which the construction machine moves the bucket 46 to perform the construction work has been shown, but the present invention is not limited to this, and the present invention can be applied to a construction machine having an attachment other than the bucket 46.

第1実施形態の説明では、画像センサ12がブーム42に設けられる例を示したが、本発明はこれに限定されない。画像センサ12は、操縦室38の屋根等に設けられてもよい。 In the description of the first embodiment, an example in which the image sensor 12 is provided on the boom 42 has been shown, but the present invention is not limited thereto. The image sensor 12 may be provided on the roof of the cockpit 38 or the like.

上述の変形例は、第1実施形態と同様の作用・効果を奏する。 The above-mentioned modification has the same action / effect as that of the first embodiment.

上述した実施形態と変形例の任意の組み合わせもまた本発明の実施形態として有用である。組み合わせによって生じる新たな実施形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。 Any combination of the above-described embodiments and modifications is also useful as an embodiment of the present invention. The new embodiments resulting from the combination have the effects of the combined embodiments and variants.

1・・・操縦支援システム、10・・・取得部、12a・・・第1画像センサ、12b・・・第2画像センサ、12c・・・第3画像センサ、16・・・画像操作部、20・・・処理部、20b・・・姿勢識別部、20c・・・視線識別部、20g・・・表示位置調整部、20h・・・重複画像生成部、30・・・建設機械用操縦支援装置、32・・・操縦席、48・・・腕機構、50・・・表示部、100・・・建設機械。 1 ... Maneuvering support system, 10 ... Acquisition unit, 12a ... 1st image sensor, 12b ... 2nd image sensor, 12c ... 3rd image sensor, 16 ... Image operation unit, 20 ... Processing unit, 20b ... Attitude identification unit, 20c ... Line-of-sight identification unit, 20g ... Display position adjustment unit, 20h ... Duplicate image generation unit, 30 ... Operation support for construction machinery Equipment, 32 ... cockpit, 48 ... arm mechanism, 50 ... display, 100 ... construction machinery.

Claims (10)

操縦に応じて変形する腕機構によって形成される操縦席からの死角の画像のデータを取得する取得部と、
前記画像のデータを基に前記腕機構を透かして前記死角を前記操縦席から見た透視画像のデータを生成する処理部と、
前記操縦席と前記腕機構との間に前記透視画像を表示する表示部と
を備える建設機械用操縦支援システム。
An acquisition unit that acquires image data of a blind spot from the cockpit formed by an arm mechanism that deforms according to maneuvering,
A processing unit that generates perspective image data of the blind spot as seen from the cockpit through the arm mechanism based on the image data.
A maneuvering support system for construction machinery including a display unit for displaying the perspective image between the cockpit and the arm mechanism.
前記表示部は前記透視画像に前記腕機構に関する画像を重ねて表示する請求項1に記載の操縦支援システム。 The maneuvering support system according to claim 1, wherein the display unit displays an image relating to the arm mechanism superimposed on the perspective image. 前記取得部は相互に離れて配置される第1画像センサおよび第2画像センサを含み、
前記処理部は前記第1画像センサおよび前記第2画像センサの検知結果を基に前記透視画像のデータを生成する請求項1または2に記載の操縦支援システム。
The acquisition unit includes a first image sensor and a second image sensor that are arranged apart from each other.
The maneuvering support system according to claim 1 or 2, wherein the processing unit generates data of the perspective image based on the detection results of the first image sensor and the second image sensor.
前記第1画像センサおよび前記第2画像センサは前記腕機構を挟んで配置される請求項3に記載の操縦支援システム。 The maneuvering support system according to claim 3, wherein the first image sensor and the second image sensor are arranged so as to sandwich the arm mechanism. 前記取得部は前記第1画像センサおよび前記第2画像センサとは別の位置に配置される第3画像センサを含み、
前記処理部は前記第1画像センサ乃至前記第3画像センサの検知結果を基に前記透視画像のデータを生成する請求項3または4に記載の操縦支援システム。
The acquisition unit includes the first image sensor and a third image sensor arranged at a position different from the second image sensor.
The maneuvering support system according to claim 3 or 4, wherein the processing unit generates data of the perspective image based on the detection results of the first image sensor to the third image sensor.
前記透視画像の表示位置を調整するための表示位置調整部を有する請求項1から5のいずれかに記載の操縦支援システム。 The maneuvering support system according to any one of claims 1 to 5, further comprising a display position adjusting unit for adjusting the display position of the perspective image. 操縦者の姿勢を識別し、識別結果に応じて前記透視画像の表示位置を変更する姿勢識別部を備える
請求項6に記載の操縦支援システム。
The maneuvering support system according to claim 6, further comprising a posture identification unit that identifies the posture of the operator and changes the display position of the perspective image according to the identification result.
操縦者の視線を識別し、識別結果に応じて前記透視画像の表示位置を変更する視線識別部を備える
請求項6に記載の操縦支援システム。
The maneuvering support system according to claim 6, further comprising a line-of-sight identification unit that identifies the line of sight of the operator and changes the display position of the perspective image according to the identification result.
操縦に応じて変形する腕機構によって形成される操縦席からの死角の画像のデータを取得するステップと、
前記画像のデータを基に前記腕機構を透かして前記死角を前記操縦席から見た透視画像のデータを生成するステップと、
前記操縦席と前記腕機構との間に前記透視画像を表示するステップと
を含む建設機械用操縦支援方法。
The step of acquiring the image data of the blind spot from the cockpit formed by the arm mechanism that deforms according to the maneuver, and
A step of generating perspective image data of the blind spot viewed from the cockpit through the arm mechanism based on the image data.
A maneuvering support method for construction machinery, which includes a step of displaying the perspective image between the cockpit and the arm mechanism.
操縦に応じて変形する腕機構と、
前記腕機構によって形成される操縦席からの死角の画像のデータを取得する取得部と、
前記画像のデータを基に前記腕機構を透かして前記死角を前記操縦席から見た透視画像のデータを生成する処理部と、
前記操縦席と前記腕機構との間に前記透視画像を表示する表示部と
を備える建設機械。
An arm mechanism that deforms according to maneuvering,
An acquisition unit that acquires image data of a blind spot from the cockpit formed by the arm mechanism, and
A processing unit that generates perspective image data of the blind spot viewed from the cockpit through the arm mechanism based on the image data.
A construction machine including a display unit for displaying a perspective image between the cockpit and the arm mechanism.
JP2019115316A 2019-06-21 2019-06-21 Steering support system for construction machine, steering support method for construction machine, and construction machine Pending JP2021001472A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019115316A JP2021001472A (en) 2019-06-21 2019-06-21 Steering support system for construction machine, steering support method for construction machine, and construction machine
KR1020200058111A KR20200145671A (en) 2019-06-21 2020-05-15 Operation support system for construction equipment, operation support method for construction equipment, construction equipment
CN202010435806.9A CN112112202B (en) 2019-06-21 2020-05-21 Steering assist system, steering assist method, and construction machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019115316A JP2021001472A (en) 2019-06-21 2019-06-21 Steering support system for construction machine, steering support method for construction machine, and construction machine

Publications (1)

Publication Number Publication Date
JP2021001472A true JP2021001472A (en) 2021-01-07

Family

ID=73798893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019115316A Pending JP2021001472A (en) 2019-06-21 2019-06-21 Steering support system for construction machine, steering support method for construction machine, and construction machine

Country Status (3)

Country Link
JP (1) JP2021001472A (en)
KR (1) KR20200145671A (en)
CN (1) CN112112202B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153722A1 (en) * 2022-02-08 2023-08-17 현대두산인프라코어(주) Transparent display-based work assistance method and device for construction machinery
WO2024107725A1 (en) * 2022-11-14 2024-05-23 Doosan Bobcat North America, Inc. Systems and methods for implementing integrated displays for power machines

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210089039A (en) * 2020-01-07 2021-07-15 두산인프라코어 주식회사 System and method of controlling construction machinery
CN112896047A (en) * 2021-03-03 2021-06-04 上海三一重机股份有限公司 Auxiliary image generation method and device for working machine and working machine
KR20240056262A (en) * 2022-10-21 2024-04-30 에이치디현대인프라코어 주식회사 System and method of controlling construction machinery

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10299032A (en) * 1997-04-22 1998-11-10 Kensetsusho Kanto Chiho Kensetsu Kyokucho Visibility improving equipment for traveling vehicle for work
JP2006053922A (en) * 2004-08-10 2006-02-23 Caterpillar Inc Method and apparatus for enhancing visibility to machine operator
JP2015226094A (en) * 2014-05-26 2015-12-14 住友建機株式会社 Remote control system for work machine
JP2016211149A (en) * 2015-04-29 2016-12-15 日立建機株式会社 Construction machine
JP2017145649A (en) * 2016-02-18 2017-08-24 日立建機株式会社 Work machine
JP2018152738A (en) * 2017-03-13 2018-09-27 株式会社小松製作所 Display system, display method, and remote control system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55106834A (en) * 1979-02-03 1980-08-16 Reizou Takahashi Visual dead angle dissolving device in big automobile
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP4569739B2 (en) * 2003-11-28 2010-10-27 日立建機株式会社 Construction machine display device
JP2006044596A (en) * 2004-08-09 2006-02-16 Denso Corp Display device for vehicle
JP4929869B2 (en) * 2006-06-21 2012-05-09 三菱電機株式会社 In-vehicle driving assistance camera device
CN104890574A (en) * 2014-03-04 2015-09-09 魏康 Car A column blind zone eliminating device based on machine vision
CN206124889U (en) * 2016-07-11 2017-04-26 南京富道电子科技有限公司 Avoid supplementary safety device of car A post blind area
CN109774618A (en) * 2019-01-23 2019-05-21 钟辉 A kind of the installed video system and its display methods of non-blind area

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10299032A (en) * 1997-04-22 1998-11-10 Kensetsusho Kanto Chiho Kensetsu Kyokucho Visibility improving equipment for traveling vehicle for work
JP2006053922A (en) * 2004-08-10 2006-02-23 Caterpillar Inc Method and apparatus for enhancing visibility to machine operator
JP2015226094A (en) * 2014-05-26 2015-12-14 住友建機株式会社 Remote control system for work machine
JP2016211149A (en) * 2015-04-29 2016-12-15 日立建機株式会社 Construction machine
JP2017145649A (en) * 2016-02-18 2017-08-24 日立建機株式会社 Work machine
JP2018152738A (en) * 2017-03-13 2018-09-27 株式会社小松製作所 Display system, display method, and remote control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153722A1 (en) * 2022-02-08 2023-08-17 현대두산인프라코어(주) Transparent display-based work assistance method and device for construction machinery
WO2024107725A1 (en) * 2022-11-14 2024-05-23 Doosan Bobcat North America, Inc. Systems and methods for implementing integrated displays for power machines

Also Published As

Publication number Publication date
KR20200145671A (en) 2020-12-30
CN112112202B (en) 2024-04-23
CN112112202A (en) 2020-12-22

Similar Documents

Publication Publication Date Title
JP2021001472A (en) Steering support system for construction machine, steering support method for construction machine, and construction machine
JP5775283B2 (en) Work machine monitoring device
JP5779244B2 (en) Work machine ambient monitoring device
JP5546427B2 (en) Work machine ambient monitoring device
JP5113586B2 (en) Work vehicle
JP5066198B2 (en) Work machine monitoring device
JP2018055179A (en) Route generation system
KR20210129086A (en) Display device, shovel, information processing device
US10415212B2 (en) Bulldozer
CN111386369B (en) Construction machine
US11993922B2 (en) Remote operation system
JP2016061054A (en) Shovel, and supporting device for the shovel
US10186017B2 (en) Construction machinery
JP7326796B2 (en) working machine
CN113544337B (en) Operating mechanism for working machine and working machine provided with same
KR20180071331A (en) Working vehicle
WO2023100689A1 (en) Construction machine driving device, and construction machine and construction machine system provided with same
KR102410705B1 (en) Crane control
JP2020117994A (en) Work machine
US20220136210A1 (en) Machine control component with input device to control machine display
WO2021090678A1 (en) Periphery monitoring device for working machine
JP2023103876A (en) Remote operation support system
KR20230159892A (en) Indication control devices, indication control methods and working machines
JP2023178015A (en) Remote control system for forklift
CN115088251A (en) Remote operation device, remote operation support server, remote operation support system, and remote operation support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231128