JP6812432B2 - ショベル - Google Patents

ショベル Download PDF

Info

Publication number
JP6812432B2
JP6812432B2 JP2018526335A JP2018526335A JP6812432B2 JP 6812432 B2 JP6812432 B2 JP 6812432B2 JP 2018526335 A JP2018526335 A JP 2018526335A JP 2018526335 A JP2018526335 A JP 2018526335A JP 6812432 B2 JP6812432 B2 JP 6812432B2
Authority
JP
Japan
Prior art keywords
image
excavator
region
detection function
operating state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018526335A
Other languages
English (en)
Other versions
JPWO2018008542A1 (ja
Inventor
泉川 岳哉
岳哉 泉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo SHI Construction Machinery Co Ltd
Original Assignee
Sumitomo SHI Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo SHI Construction Machinery Co Ltd filed Critical Sumitomo SHI Construction Machinery Co Ltd
Publication of JPWO2018008542A1 publication Critical patent/JPWO2018008542A1/ja
Application granted granted Critical
Publication of JP6812432B2 publication Critical patent/JP6812432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/08Superstructures; Supports for superstructures
    • E02F9/10Supports for movable superstructures mounted on travelling or walking gears or on other superstructures
    • E02F9/12Slewing or traversing gears
    • E02F9/121Turntables, i.e. structure rotatable about 360°
    • E02F9/123Drives or control devices specially adapted therefor
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/2033Limiting the movement of frames or implements, e.g. to avoid collision between implements and the cabin
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • E02F9/262Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Description

本発明は、周囲に存在する物体を検知可能なショベルに関する。
ショベルに取り付けられたカメラの出力に基づいてショベルの周囲に存在する人を検知する人検知機能を備えたショベルが知られている(特許文献1参照。)。このショベルは、カメラが撮像した画像の中に人の画像が存在すると判定した場合に、ショベルの操作者に対して警報を出力する。
特開2010−198519号公報
しかしながら、特許文献1のショベルは、カメラのレンズが汚れている場合等、人検知機能を適切に利用できない場合、ショベルの周囲に人が存在するにもかかわらずその人を検知できず警報を出力できないおそれがある。そして、ショベルの操作者は、警報が出力されていない状態を、ショベルの周囲に人が存在しない状態と捉えてしまうおそれがある。
そこで、人検知機能等の所定の物体を検知する物体検知機能を備えたショベルにおいて、所定の物体を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができるショベルを提供することが望ましい。
本発明の実施例に係るショベルは、下部走行体と、前記下部走行体に旋回可能に搭載された上部旋回体と、前記上部旋回体に取り付けられた撮像装置と、表示装置と、を備え、前記表示装置に表示される画像は、第1領域と、該第1領域とは異なる場所にある第2領域とを含み、前記第2領域には、前記撮像装置を用いた物体検知機能の少なくとも2つの作動状態が表示され、前記第2領域に表示される前記物体検知機能の作動状態のそれぞれは表示態様が違い、前記第2領域の表示態様の違いは、色の違い、模様の違い、及び、点灯/点滅の違いの少なくとも1つである。
上述の手段により、物体検知機能を備えたショベルにおいて、物体を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができるショベルを提供できる。
本発明の実施例に係るショベルの構成例の側面図である。 図1Aのショベルの上面図である。 本発明の実施例に係るショベルの別の構成例の上面図である。 本発明の実施例に係るショベルに搭載される人検知システムの構成例を示すブロック図である。 状態判定処理のフローチャートである。 出力画像の表示例を示す図である。 出力画像の別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。 出力画像の更に別の表示例を示す図である。
最初に、図1A〜図1Cを参照し、本発明の実施例に係るショベル(掘削機)について説明する。図1Aはショベルの側面図であり、図1Bはショベルの上面図である。図1Cは、ショベルの別の構成例の上面図である。
図1A及び図1Bに示すように、ショベルの下部走行体1には旋回機構2を介して上部旋回体3が旋回可能に搭載されている。上部旋回体3にはブーム4が取り付けられている。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはバケット6が取り付けられている。ブーム4、アーム5、バケット6は、ブームシリンダ7、アームシリンダ8、バケットシリンダ9によりそれぞれ油圧駆動される。上部旋回体3には、運転室としてのキャビン10が設けられ且つエンジン等の動力源が搭載されている。また、上部旋回体3には、物体検知装置20が取り付けられている。
物体検知装置20は、ショベル周辺の物体を検知するための装置である。物体検知装置20は、例えば、ショベル周辺の画像を撮像する撮像装置(カメラ)である。カメラは、例えば、CCD、CMOS等の撮像素子で構成される。図1A及び図1Bの例では、物体検知装置20は、キャビン10にいる操作者の死角を撮像できるように上部旋回体3の上面に取り付けられた3台の単眼カメラで構成される。3台の単眼カメラは、上部旋回体3の上面の左端部に取り付けられた左カメラ20L、上部旋回体3の上面の右端部に取り付けられた右カメラ20R、及び、上部旋回体3の上面の後端部に取り付けられたバックカメラ20Bである。図1Bは、左カメラ20L、右カメラ20R、バックカメラ20Bの撮像範囲CL、CR、CBを一点鎖線で示している。3台の単眼カメラは、望ましくは、図1Bに示すように上部旋回体3の上面からはみ出さないように上部旋回体3に取り付けられている。左カメラ20Lは省略されてもよい。
物体検知装置20は、超音波センサ、レーザレーダセンサ、ミリ波センサ、焦電型赤外線センサ、ボロメータ型赤外線センサ、赤外線カメラ等であってもよい。図1Cの例では、物体検知装置20は、3台の単眼カメラと6台の焦電型赤外線センサで構成される。3台の単眼カメラの配置は、図1Bでの配置と同じである。6台の焦電型赤外線センサは、上部旋回体3の上面の左端部に取り付けられた第1赤外線センサ20U及び第2赤外線センサ20V、上部旋回体3の上面の後端部に取り付けられた第3赤外線センサ20W及び第4赤外線センサ20X、並びに、上部旋回体3の上面の右端部に取り付けられた第5赤外線センサ20Y及び第6赤外線センサ20Zである。図1Cは、第1赤外線センサ20U〜第6赤外線センサ20Zの検出範囲CU〜CZを点線で示している。6台の焦電型赤外線センサは、望ましくは、図1Cに示すように上部旋回体3の上面からはみ出さないように上部旋回体3に取り付けられている。左カメラ20Lが省略される場合、第1赤外線センサ20U及び第2赤外線センサ20Vは省略されてもよい。
図1B及び図1Cに示すように、キャビン10内には、表示装置14、室内警報器15、制御装置30等が設置されている。表示装置14は、各種情報を表示する装置であり、例えば、液晶ディスプレイ、有機ELディスプレイ等である。室内警報器15は、キャビン10内の操作者に向けて警報を出力する装置であり、例えば、キャビン10内に設置されたブザー、スピーカ、LEDランプ、シートバイブレータ等で構成される。制御装置30は、CPU、揮発性記憶装置、不揮発性記憶装置等を備えたコンピュータである。
ここで、図2を参照し、本発明の実施例に係るショベルに搭載される物体検知システム50について説明する。図2は、物体検知システム50の構成例を示すブロック図である。
物体検知システム50は、ショベルの周囲に設定された所定の検知範囲内へ侵入した物体を検知するシステムであり、主に、表示装置14、室内警報器15、物体検知装置20、情報取得装置21及び制御装置30等で構成される。物体は、人、車両、作業機械、動物等である。本実施例では、物体検知システム50は、人を検知する。
図2の物体検知システム50において、制御装置30は、例えば、人検知部31、画像生成部32、作動状態判定部33等の機能要素のそれぞれに対応するプログラムをCPUに実行させて各機能要素に対応する機能を実現する。
人検知部31は、ショベルの周囲に設定された所定の検知範囲内へ侵入した人を検知する機能要素である。図2の例では、人検知部31は、人検知手段及び物体検知装置20としてのカメラの出力に基づいて人の存否を判定する。この場合、人検知部31は、画像形状に基づいて人を検知するため、樹木、建物等の人以外の物体と人とを区別できる。人検知部31は、例えば、HOG特徴量等の画像特徴量を利用して撮像画像中の人画像を見つけ出すことで所定の検知範囲内における人の存否を判定する。人検知部31は、他の公知の画像認識技術を用いて所定の検知範囲内における人の存否を判定してもよい。
この場合、所定の検知範囲は、例えば、カメラの撮像範囲に含まれる空間である。図2の例では、所定の検知範囲は、カメラの撮像範囲に含まれる空間のうち、バケット6の爪先が到達可能な空間である。所定の検知範囲は、カメラの撮像範囲に相当する空間であってもよく、カメラの撮像範囲に含まれる空間のうち、ショベルの旋回軸から所定距離範囲内の空間であってもよい。
所定の検知範囲は、複数の部分検知範囲で構成されてもよい。例えば、左カメラ20Lの撮像範囲CLに含まれる空間であるショベルの左方にある左方検知範囲、バックカメラ20Bの撮像範囲CBに含まれる空間であるショベルの後方にある後方検知範囲、及び、右カメラ20Rの撮像範囲CRに含まれる空間であるショベルの右方にある右方検知範囲の組み合わせで構成されてもよい。隣り合う2つの部分検知範囲は、部分的に重複するように配置されてもよく、重複しないように隣接して配置されてもよく、間隔を空けて配置されていてもよい。
また、人検知部31は、人検知手段及び物体検知装置20としての超音波センサ、レーザレーダセンサ、ミリ波センサ、焦電型赤外線センサ、ボロメータ型赤外線センサ、赤外線カメラ等の物体検出センサの出力に基づいて所定の検知範囲内における人の存否を判定してもよい。例えば焦電型赤外線センサの出力を用いる場合、人検知部31は、検知範囲内のエネルギ変化が所定の閾値を上回った場合に検知範囲内に人が存在すると判定する。この場合、所定の検知範囲は焦電型赤外線センサの検出範囲に相当する空間であってもよい。
人検知部31は、人を検知した場合、室内警報器15に制御指令を出力して室内警報器15を作動させ、人を検知したことをショベルの操作者に伝える。図2の例では、人検知部31は、キャビン10内に設置されたブザーを作動させる。
画像生成部32は、物体検知装置20としてのカメラの出力に基づいて出力画像を生成する機能要素である。図2の例では、画像生成部32は、バックカメラ20B、左カメラ20L、及び右カメラ20Rのそれぞれが撮像した入力画像に基づいて出力画像を生成する。そして、生成した出力画像を表示装置14に表示させる。出力画像は、1つ又は2つ以上の入力画像から生成されるカメラ画像を含む。カメラ画像は、例えば、3つの入力画像の合成画像に視点変換処理を施して生成される。また、カメラ画像は、例えば、ショベルの周囲を上から見たときの状態を映し出す周囲画像である。周囲画像の領域は、例えば、ショベルのコンピュータグラフィック(CG)画像の周りを取り囲むように、且つ、外側輪郭線が円弧を描くように設定される。なお、周囲画像の領域は、外側輪郭線が任意の曲率を有する円弧を描くように設定されてもよく、外側輪郭線が楕円弧を描くように設定されてもよく、外側輪郭線が任意の凸曲線を描くように設定されてもよい。また、出力画像は、ショベルの周囲を横から見たときの状態を映し出すスルー画像であってもよい。スルー画像は、例えば、ショベルの後方の空間をショベル側からほぼ水平に見たときの様子を映し出す。スルー画像の領域は、外側輪郭線が少なくとも1つの直線部分を有するように設定される。例えば、スルー画像の領域は、外側輪郭線が正方形、長方形、台形等を描くように設定されてもよい。また、スルー画像は、例えば、視点変換処理を施すことなく生成されるカメラ画像であってもよい。
作動状態判定部33は、物体検知機能の一例である人検知機能の作動状態を判定する機能要素である。人検知機能の作動状態は、検知不能状態及び検知可能状態を含む。
検知不能状態は、人を検知できないおそれがある状態を意味する。例えば、雨、霧等により視界不良となっている状態、屋内作業、夜間作業等での照度不足により視界不良となっている状態等を含む。また、物体検知装置20としてのカメラの出力に基づいて人の存否を判定する構成では、例えば、カメラのレンズに泥、雪、雨粒等が付着している状態を含む。同様に、物体検知装置20としての物体検出センサの出力に基づいて人の存否を判定する構成では、例えば、赤外線センサの発光部又は受光部に泥、雪、雨粒等が付着している状態を含む。或いは、ミリ波センサの出力に基づいて人の存否を判定する構成では、外部電波が強くノイズが大きい状態を含む。
検知可能状態は、人を検知できる状態を意味する。図2の例では、作動状態判定部33は、検知不能状態でなければ検知可能状態であると判定する。
人検知機能の作動状態は、検知不能状態及び検知可能状態以外の状態を含んでいてもよい。例えば、人検知機能が起動中であり人検知機能を未だ利用できない状態である検知準備状態を含んでいてもよい。
作動状態判定部33は、利用可能な任意の情報に基づいて人検知機能の作動状態を判定する。図2の例では、物体検知装置20としてのカメラが撮像した入力画像に基づいて人検知機能の作動状態が検知不能状態であるか否かを判定する。具体的には、公知の画像認識処理により泥等がレンズに付着していると判定した場合、人検知機能が検知不能状態にあると判定する。物体検知装置20としての物体検出センサの出力に基づいて人の存否を判定する構成では、例えば、所定時間にわたる物体検出センサの出力に基づいて人検知機能の作動状態を判定してもよい。具体的には、所定時間にわたって物体検出センサの出力が継続的に所定の閾値以上で維持された場合、人検知機能が検知不能状態にあると判定してもよい。また、作動状態判定部33は、情報取得装置21としての大気圧センサ、気温センサ、照度センサ、湿度センサ、測位センサ等の出力に基づいて、或いは、情報取得装置21としての通信装置を介して受信した気象情報等の各種情報に基づいて人検知機能の作動状態を判定してもよい。
ここで図3を参照し、制御装置30が物体検知機能の作動状態を判定する処理(以下、「状態判定処理」とする。)について説明する。図3は状態判定処理のフローチャートである。制御装置30は、ショベルの稼働中に繰り返しこの状態判定処理を実行する。
最初に、制御装置30の作動状態判定部33は、物体検知機能に関する情報を取得する(ステップST1)。物体検知機能に関する情報は、例えば、物体検知装置20としてのカメラが撮像した入力画像、物体検知装置20としての物体検出センサの出力、情報取得装置21としての大気圧センサ、気温センサ、照度センサ、湿度センサ、測位センサ等の出力、及び、情報取得装置21としての通信装置を介して受信した気象情報等を含む。
その後、作動状態判定部33は、物体を検知できないおそれがあるか否かを判定する(ステップST2)。作動状態判定部33は、例えば、雨、霧等により視界不良となっている場合、屋内作業、夜間作業等での照度不足により視界不良となっている場合に物体を検知できないおそれがあると判定する。カメラの出力に基づいて物体を検知する構成では、例えば、カメラのレンズに泥、雪、雨粒等が付着している場合に、物体を検知できないおそれがあると判定する。物体検出センサの出力に基づいて物体を検知する構成では、例えば、赤外線センサの発光部又は受光部に泥、雪、雨粒等が付着している場合に物体を検知できないおそれがあると判定する。ミリ波センサの出力に基づいて物体の存否を判定する構成では、外部電波が強くノイズが大きい場合に物体を検知できないおそれがあると判定する。
物体を検知できないおそれがあると判定した場合(ステップST2のYES)、作動状態判定部33は、物体検知機能の作動状態が検知不能状態であると判定する(ステップST3)。
一方、物体を検知できないおそれがないと判定した場合(ステップST2のNO)、すなわち、物体を検知できると判定した場合、作動状態判定部33は、物体検知機能の作動状態が検知可能状態であると判定する(ステップST4)。
このようにして、制御装置30は、ショベルの稼働中、物体検知機能の作動状態の判定を繰り返し実行する。
また、作動状態判定部33は、人検知機能の作動状態をショベルの操作者が区別できるように表示する。例えば、作動状態判定部33は、人検知機能の作動状態を表す作動状態表示領域の表示態様を現在の作動状態に応じて変えることで人検知機能の現在の作動状態を操作者が見分けられるように表示する。具体的には、作動状態判定部33は、人検知機能の作動状態を表す色の違いで特徴付けられる作動状態表示領域を用いて人検知機能の現在の作動状態を表示する。作動状態表示領域は、例えば、画像生成部32が生成した出力画像の上に重畳表示される。そして、作動状態表示領域は、例えば、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)で塗り潰され、人検知機能の作動状態が検知可能状態にあるときに第二色(例えば緑色)で塗り潰される。
人検知機能の作動状態は、模様の違いで特徴付けられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)の第一模様(例えばドットパターン)で塗り潰され、人検知機能の作動状態が検知可能状態にあるときに第二色(例えば緑色)の第二模様(例えば斜線パターン)で塗り潰されてもよい。なお、第一色と第二色は同じ色であってもよい。
或いは、人検知機能の作動状態は、表示/非表示の違いで特徴づけられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)で塗り潰され、人検知機能の作動状態が検知可能状態にあるときに非表示(現在の表示状態の維持)とされてもよい。
或いは、人検知機能の作動状態は、点灯/点滅の違いで特徴づけられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第一色(例えば赤色)で塗り潰された状態で点灯し、人検知機能の作動状態が検知可能状態にあるときに第二色(例えば緑色)で塗り潰された状態で点滅してもよい。なお、第一色と第二色は同じ色であってもよい。
或いは、人検知機能の作動状態は、テキスト(文字情報)、アイコン画像等の違いで特徴付けられてもよい。例えば、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに検知不能状態を表すアイコン画像と共に「検知不能」のテキストを表示し、人検知機能の作動状態が検知可能状態にあるときに検知可能状態を表すアイコン画像と共に「検知可能」のテキストを表示してもよい。テキスト又はアイコン画像の何れかを表示するだけであってもよい。
人検知機能の作動状態が検知準備状態にあるときに第三色(例えば黄色)で塗り潰されてもよい。或いは、作動状態表示領域は、人検知機能の作動状態が検知不能状態にあるときに第1色(例えば赤色)の第1パターン(例えば斜線パターン)で塗り潰され、人検知機能の作動状態が検知準備状態にあるときに第1色(例えば赤色)の第2パターン(例えばドットパターン)で塗り潰されてもよい。検知不能状態及び検知準備状態に対して同じ第1色を用いる理由は、検知不能状態及び検知準備状態は何れも人を検知できないおそれがある状態である点で共通するためである。
このように、作動状態判定部33は、作動状態表示領域の表示態様(色、模様、表示/非表示、点灯/点滅等)を現在の作動状態に応じて変えることで人検知機能の現在の作動状態を操作者が区別できるように表示する。
ここで図4A〜図4Cを参照し、人検知機能の作動状態の表示例について説明する。図4Aは人検知機能が検知不能状態のときの出力画像の一例を示し、図4Bは人検知機能が検知可能状態のときの出力画像の一例を示す。図4Cは、人検知機能が検知可能状態のときの出力画像の別の一例を示す。図4A〜図4Cでは、出力画像は表示装置14の画面に表示された状態で示されている。図5〜図8においても同様である。
図4A〜図4Cに示すように、出力画像は、CG画像G1、周囲画像領域G2、作動状態表示領域G3、及びテキスト表示領域G4を含む。周囲画像領域G2は、遠景画像部分G2a及び近景画像部分G2bを含む。遠景画像部分G2aは、ショベルの上方にある仮想視点から遠方を見たときの景色を映し出す。近景画像部分G2bは、ショベルの近傍をショベルの上方にある仮想視点から見たときの景色を映し出す。
CG画像G1は、ショベルを真上から見たときの形状を表すコンピュータグラフィック画像である。本実施例では、CG画像G1は、出力画像の中央部に配置されている。
周囲画像領域G2は、図4A及び図4Bでは、バックカメラ20B、左カメラ20L、及び右カメラ20Rのそれぞれが撮像した入力画像に基づいて生成される周囲画像を表示するカメラ画像領域である。図4Cにおける周囲画像領域G2は、バックカメラ20B及び右カメラ20Rのそれぞれが撮像した入力画像に基づいて生成される周囲画像を表示するカメラ画像領域である。本実施例では、周囲画像領域G2は、CG画像G1の周りを囲むように配置され、あたかも真上から見たショベル近傍の近景画像部分G2bと横から見た遠方の遠景画像部分G2aとを含む。
作動状態表示領域G3は、人検知機能の作動状態を色で特徴付けて表示する領域であり、周囲画像領域G2の輪郭の一部に沿うように配置される。具体的には、図4A及び図4Bにおける周囲画像領域G2は、CG画像G1の右方、左方、及び後方の三方向を囲む略270度の部分円を形成するように配置される。そして、作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿って略270度の円弧形状を形成するように配置される。図4Cにおける周囲画像領域G2は、CG画像G1の右方及び後方の二方向を囲む略180度の部分円を形成するように配置される。そして、作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿って略180度の円弧形状を形成するように配置される。
また、出力画像における周囲画像領域G2と作動状態表示領域G3の位置関係は、ショベルと物体検知システム50の検知範囲の位置関係に対応する。例えば、周囲画像領域G2の輪郭の一部に沿った作動状態表示領域G3の長さは検知範囲の幅(例えば水平幅)を表し、CG画像G1から見た作動状態表示領域G3の方向は、ショベルに対する検知範囲の方向を表す。或いは、出力画像の中心(部分円形状の周囲画像領域G2の中心)から見た作動状態表示領域G3の方向は、ショベルに対する検知範囲の方向を表す。図4A及び図4Bに示す例は、CG画像G1の左方、後方、及び右方をカバーする略270度の円弧形状の作動状態表示領域G3を表示することで、ショベルの左方、後方、及び右方に略270度の幅の検知範囲が設定されていることを表す。図4Cに示す例は、CG画像G1の後方及び右方をカバーする略180度の円弧形状の作動状態表示領域G3を表示することで、ショベルの後方及び右方に略180度の幅の検知範囲が設定されていることを表す。
なお、作動状態表示領域G3は、望ましくは、周囲画像領域G2(特にショベル近傍の画像の部分)と重ならないように表示される。すなわち、作動状態表示領域G3は、望ましくは、周囲画像領域G2とは異なる場所にある。重複部分のカメラ画像が見え難くなったり或いは見えなくなったりするのを防止するためである。また、作動状態表示領域G3は、望ましくは、できるだけ大きく表示されるように配置される。人検知機能の作動状態をショベルの操作者が容易に認識できるようにするためである。
テキスト表示領域G4は、各種情報をテキスト表示する領域である。本実施例では、テキスト表示領域G4は、出力画像の右下隅で且つ作動状態表示領域G3の外側に配置され、人検知機能の作動状態をテキスト表示している。なお、テキスト表示領域G4は、出力画像の左下隅、CG画像G1の上等、別の位置に配置されてもよい。また、テキスト表示領域G4は、作動状態表示領域G3内に統合されてもよく、省略されてもよい。
図4Aの汚れ画像G5は、左カメラ20Lのレンズに付着した泥の画像である。汚れ画像G5が原因で人検知機能が検知不能状態であると判定されたとき、作動状態表示領域G3及びテキスト表示領域G4は赤色で塗り潰される。図4Aの斜線領域は赤色で塗り潰された状態を表す。また、人検知機能が検知可能状態であると判定されたとき、作動状態表示領域G3及びテキスト表示領域G4は、図4Bに示すように緑色で塗り潰される。図4Bの白色領域は緑色で塗り潰された状態を表す。
この構成により、物体検知システム50は、物体検知システム50の検知範囲がショベルの左方、右方、及び後方の三方向をカバーすることをショベルの操作者に直感的に認識させることができる。また、人検知機能の作動状態が検知不能状態であるか検知可能状態であるかをショベルの操作者に瞬時に認識させることができる。
次に図5〜図7を参照し、人検知機能の作動状態の別の表示例について説明する。図5〜図7は人検知機能の一部が検知不能状態のときの出力画像の一例を示す。
図5〜図7の例では、作動状態判定部33は、左カメラ20L、右カメラ20R、及びバックカメラ20Bのそれぞれが撮像した入力画像に基づいて左方検知範囲、右方検知範囲、及び後方検知範囲のそれぞれに関する人検知機能の作動状態を個別に判定する。そのため、作動状態表示領域G3は、左作動状態表示領域G3L、右作動状態表示領域G3R、及び後方作動状態表示領域G3Bに分割されている。
左作動状態表示領域G3Lは、左カメラ20Lが撮像した入力画像に基づいて判定される左方検知範囲に関する人検知機能の作動状態を表示する。右作動状態表示領域G3Rは、右カメラ20Rが撮像した入力画像に基づいて判定される右方検知範囲に関する人検知機能の作動状態を表示する。後方作動状態表示領域G3Bは、バックカメラ20Bが撮像した入力画像に基づいて判定される後方検知範囲に関する人検知機能の作動状態を表示する。
図5の作動状態表示領域G3は、図4Aの作動状態表示領域G3と同様、周囲画像領域G2の外側輪郭線に沿って略270度の円弧形状を形成するように配置されている。そして、左作動状態表示領域G3L、右作動状態表示領域G3R、及び後方作動状態表示領域G3Bに三等分されている。また、左作動状態表示領域G3L及び右作動状態表示領域G3Rは緑色で塗り潰され、後方作動状態表示領域G3Bは赤色で塗り潰されている。テキスト表示領域G4は、テキストメッセージ「後方人検知不能」を表示し、後方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図5は、バックカメラ20Bのレンズに付着した汚れ画像G5が原因で後方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
図6の作動状態表示領域G3は、周囲画像領域G2の内側輪郭線に沿ってCG画像G1の左方、右方、及び後方の三方向を囲むように(矩形の三辺を構成するように)配置されている。そして、左辺を構成する左作動状態表示領域G3L、右辺を構成する右作動状態表示領域G3R、及び、底辺を構成する後方作動状態表示領域G3Bに分割されている。また、左作動状態表示領域G3L及び後方作動状態表示領域G3Bは緑色で塗り潰され、右作動状態表示領域G3Rは赤色で塗り潰されている。テキスト表示領域G4は、テキストメッセージ「右方人検知不能」を表示し、右方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図6は、右カメラ20Rのレンズに付着した汚れ画像G5が原因で右方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
図7の作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿う略270度の範囲にわたり出力画像における周囲画像領域G2の外側全体を埋めるように配置されている。そして、左作動状態表示領域G3L、右作動状態表示領域G3R、及び後方作動状態表示領域G3Bに分割されている。また、後方作動状態表示領域G3B及び右作動状態表示領域G3Rは緑色で塗り潰され、左作動状態表示領域G3Lは赤色で塗り潰されている。テキスト表示領域は、左作動状態表示領域G3Lに統合された状態でテキストメッセージ「左方人検知不能」を表示し、左方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図7は、左カメラ20Lのレンズに付着した汚れ画像G5が原因で左方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
上述のような構成により、物体検知システム50は、物体検知システム50の検知範囲がショベルの左方、右方、及び後方の三方向をカバーすることをショベルの操作者に直感的に認識させることができる。また、ショベルの左方検知範囲、右方検知範囲、及び後方検知範囲のそれぞれに関する人検知機能の作動状態が検知不能状態であるか検知可能状態であるかを個別にショベルの操作者に認識させることができる。
次に図8を参照し、人検知機能の作動状態の更に別の表示例について説明する。図8は、スルー画像領域G2Bを含む出力画像を示す。スルー画像領域G2Bは、バックカメラ20Bが撮像した入力画像のみを使用して視点変換処理を施さずに生成されたスルー画像を表示するカメラ画像領域である。
図8の作動状態表示領域G3は、スルー画像領域G2Bの外側輪郭線の直線部分である上辺に沿うように配置された第1後方作動状態表示領域G3B1と、スルー画像領域G2Bの外側輪郭線の直線部分である下辺に沿うように配置された第2後方作動状態表示領域G3B2とで構成される。何れか一方が省略されてもよい。
図8の例では、バックカメラ20Bのレンズに付着した汚れ画像G5が原因でバックカメラ20Bに関する人検知機能の作動状態が検知不能状態になっているため、第1後方作動状態表示領域G3B1及び第2後方作動状態表示領域G3B2は赤色で塗り潰されている。テキスト表示領域は、第1後方作動状態表示領域G3B1に統合された状態でテキストメッセージ「後方人検知不能」を表示し、後方検知範囲に侵入する人を検知できないおそれがある旨をショベルの操作者に通知している。このように、図8は、バックカメラ20Bのレンズに付着した汚れ画像G5が原因で後方検知範囲に関する人検知機能の作動状態が検知不能状態になっていることを示している。
この構成により、物体検知システム50は、スルー画像を表示している場合であっても、人検知機能の作動状態が検知不能状態であるか検知可能状態であるかをショベルの操作者に確実に認識させることができる。
上述のように、本発明の実施例に係るショベルは、下部走行体1と、下部走行体1に旋回可能に搭載された上部旋回体3と、上部旋回体3に取り付けられたカメラと、表示装置14と、ショベルの周囲に設定された所定の検知範囲内で所定の物体を検知する物体検知装置20と、を備え、物体検知装置20を用いた物体検知機能の作動状態が表示装置14に表示される。物体検知装置20は、ショベル周辺の画像を撮像する撮像装置(カメラ)であってもよく、超音波センサ、レーザレーダセンサ、ミリ波センサ、焦電型赤外線センサ、ボロメータ型赤外線センサ、赤外線カメラ等の物体検出センサであってもよい。この構成により、物体を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができる。
表示装置14に表示される画像は、例えば、第1領域と、第1領域とは異なる場所にある第2領域とを含む。第1領域は、例えば、カメラ画像を表示し、第2領域は、例えば、物体検知機能の作動状態を表示する。一実施例では、第1領域が周囲画像領域G2に対応し、第2領域が作動状態表示領域G3に対応する。この構成により、ショベルの操作者は、第2領域を見ることで、物体検知機能が物体を検知できないおそれがあるか否かを認識できる。
物体検知機能の作動状態は、例えば、検知可能状態及び検知不能状態を含む。そして、第2領域に表示される物体検知機能の作動状態のそれぞれは表示態様が違う。表示態様の違いは、色の違い、模様の違い、表示/非表示の違い、点灯/点滅の違いを含む。この構成により、ショベルの操作者は、第2領域の表示態様の違いに基づき、物体検知機能が物体を検知できないおそれがあるか否かを容易に認識できる。
表示装置14に表示される画像は、例えば、カメラ画像を表示するカメラ画像領域を含む。この場合、表示装置14は、例えば、カメラ画像領域の輪郭の一部に沿う作動状態表示領域G3の表示態様を変えることで物体検知機能の作動状態を表示する。また、表示装置14に表示される画像は、ショベルのコンピュータグラフィック画像であるCG画像G1を含んでいてもよい。この場合、カメラ画像は、ショベルの周囲を上から見た周囲画像を含む。そして、カメラ画像領域の輪郭の一部に沿った作動状態表示領域G3の長さは検知範囲の幅を表す。検知範囲は、望ましくは、予め設定されている範囲であり、例えば、カメラの撮像範囲に含まれる空間である。検知範囲は、カメラの撮像範囲に相当する空間であってもよく、カメラの撮像範囲に含まれる空間のうち、ショベルの旋回軸から所定距離範囲内の空間であってもよい。コンピュータグラフィック画像から見た作動状態表示領域G3の方向は、望ましくは、ショベルに対する検知範囲の方向を表す。この画面構成により、ショベルの操作者は、検知範囲がショベルの周囲にどのように配置され、どの検知範囲で物体を検知できないおそれがあるかを容易に認識できる。
上述のように、カメラ画像がショベルの周囲を上から見た周囲画像を含み、カメラ画像領域の輪郭の一部に沿った作動状態表示領域G3の長さが検知範囲の幅を表す場合、表示装置14に表示される画像の中心から見た作動状態表示領域G3の方向は、望ましくは、ショベルに対する検知範囲の方向を表す。この画面構成により、ショベルの操作者は、どの方向にどのような幅の検知範囲が設定されているかを容易に認識できる。
カメラ画像領域の外側輪郭線は、例えば図8に示すように、直線部分を含んでいてもよい。この場合、作動状態表示領域G3は、例えば、カメラ画像領域(スルー画像領域G2B)の外側輪郭線の直線部分に沿うように配置される。この画面構成により、カメラ画像が1台の単眼カメラの入力画像のみに基づくスルー画像であっても、ショベルの操作者は、物体検知機能の作動状態を容易に認識できる。
検知範囲は、複数の部分検知範囲で構成されていてもよい。部分検知範囲は、例えば、左カメラ20Lの撮像範囲CLに含まれる空間であるショベルの左方にある左方検知範囲、バックカメラ20Bの撮像範囲CBに含まれる空間であるショベルの後方にある後方検知範囲、右カメラ20Rの撮像範囲CRに含まれる空間であるショベルの右方にある右方検知範囲等である。この場合、表示装置14は、複数の部分検知範囲のそれぞれに関する物体検知機能の作動状態を個別に表示してもよい。この構成により、ショベルの操作者は、検知範囲毎に物体を検知できないおそれがあるか否かを認識できる。
本発明の実施例に係るショベルは、下部走行体1と、下部走行体1に旋回可能に搭載された上部旋回体3と、上部旋回体3に取り付けられたカメラと、カメラが撮像した画像から出力画像を生成する制御装置30と、出力画像を表示する表示装置14と、ショベルの周囲に設定された所定の検知範囲内へ侵入した人を検知する人検知手段と、を備えていてもよい。人検知手段は、例えば、カメラ、物体検出センサ等である。この構成では、ショベルは、出力画像において、人検知手段による人検知機能の作動状態を表示する。そのため、ショベルの操作者は、人検知機能が人を検知できないおそれがあるか否かを認識できる。この構成においても、人検知機能の作動状態は、例えば、検知可能状態及び検知不能状態を含む。そして、出力画像は、第1領域と、第1領域とは異なる場所にある第2領域とを含む。第2領域は、例えば、人検知機能の作動状態を表示する。第2領域に表示される人検知機能の作動状態のそれぞれは表示態様が違う。表示態様の違いは、色の違い、模様の違い、表示/非表示の違い、点灯/点滅の違い等を含む。この構成により、人を検知できないおそれがあるときにその旨をショベルの操作者に伝えることができる。
表示装置14は、物体検知機能の作動状態を文字情報で表示してもよい。これにより、ショベルの操作者は、物体検知機能が物体を検知できないおそれがあるか否かを更に容易に認識できる。
カメラ画像領域の縁は曲線部分を含んでいてもよい。この場合、作動状態表示領域G3は、カメラ画像領域の縁に沿った曲線部分を含んでいてもよい。例えば、カメラ画像領域としての周囲画像領域G2は、図4A及び図4Bに示すように、CG画像G1の右方、左方、及び後方の三方向を囲む略270度の部分円を形成するように配置されていてもよい。そして、作動状態表示領域G3は、周囲画像領域G2の外側輪郭線に沿って略270度の円弧形状を形成するように配置されていてもよい。この画面構成により、ショベルの操作者は、周囲360度のうちのどの程度の角度範囲が検知範囲によってカバーされているのかを直感的に認識できる。
以上、本発明を実施するための形態について詳述したが、本発明は上述のような特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
例えば、上述の実施例では、左作動状態表示領域G3L、後方作動状態表示領域G3B、及び右作動状態表示領域G3Rのそれぞれは、連続する1つの作動状態表示領域G3の一部として構成されている。しかしながら、本発明はこの構成に限定されるものではない。例えば、左作動状態表示領域G3L、後方作動状態表示領域G3B、及び右作動状態表示領域G3Rのそれぞれは独立した不連続領域であってもよい。
また、上述の実施例において、ショベルは、人を検知する物体検知システム50を搭載するが、車両、作業機械、動物等の人以外の物体を検知する物体検知システムを搭載していてもよい。
また、物体検知システム50は、1台、2台、又は4台以上のカメラが撮像した一又は複数の入力画像に基づいて左方検知範囲、右方検知範囲、及び後方検知範囲のそれぞれに関する人検知機能の作動状態を個別に判定してもよい。
本願は、2016年7月5日に出願した日本国特許出願2016−133409号に基づく優先権を主張するものであり、この日本国特許出願の全内容を本願に参照により援用する。
1・・・下部走行体 2・・・旋回機構 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 14・・・表示装置 15・・・室内警報器 20・・・物体検知装置 20B・・・バックカメラ 20L・・・左カメラ 20R・・・右カメラ 30・・・制御装置 31・・・人検知部 32・・・画像生成部 33・・・作動状態判定部 50・・・物体検知システム

Claims (17)

  1. 下部走行体と、
    前記下部走行体に旋回可能に搭載された上部旋回体と、
    前記上部旋回体に取り付けられた撮像装置と、
    表示装置と、を備え、
    前記表示装置に表示される画像は、第1領域と、該第1領域とは異なる場所にある第2領域とを含み、
    前記第2領域には、前記撮像装置を用いた物体検知機能の少なくとも2つの作動状態が表示され
    前記第2領域に表示される前記物体検知機能の作動状態のそれぞれは表示態様が違い、
    前記第2領域の表示態様の違いは、色の違い、模様の違い、及び、点灯/点滅の違いの少なくとも1つである、
    ショベル。
  2. 記第1領域には、前記撮像装置が撮像した画像が表示される
    請求項1に記載のショベル。
  3. 前記物体検知機能の作動状態は、複数の作動状態のうちの検知準備状態、検知可能状態及び検知不能状態の少なくともつである
    請求項に記載のショベル。
  4. 前記検知不能状態は、雨若しくは霧により視界不良となっている状態、又は、屋内作業若しくは夜間作業での照度不足により視界不良となっている状態といった、人を検知できないおそれがある状態を含む、
    請求項3に記載のショベル。
  5. 前記第2領域は、前記第1領域の輪郭の少なくとも一部に沿う、
    請求項乃至4の何れかに記載のショベル。
  6. 前記表示装置に表示される画像は、ショベルのコンピュータグラフィック画像を含み、
    前記撮像装置が撮像した画像は、ショベルの周囲を上から見た周囲画像を含み、
    前記第2領域の表示態様は、前記物体検知機能の作動状態の変化に応じて変わり、
    前記第2領域の長さは、前記物体検知機能に関する検知範囲の幅に対応し、
    ショベルのコンピュータグラフィック画像から見た前記第2領域の方向は、前記物体検知機能に関する検知範囲の方向に対応する、
    請求項乃至5の何れかに記載のショベル。
  7. 前記撮像装置が撮像した画像は、ショベルの周囲を上方から見た周囲画像を含み、
    前記第2領域の表示態様は、前記物体検知機能の作動状態の変化に応じて変わり、
    前記第2領域の長さは、前記物体検知機能に関する検知範囲の幅に対応し、
    前記表示装置に表示される画像の中心から見た前記第2領域の方向は、前記物体検知機能に関する検知範囲の方向に対応する、
    請求項乃至5の何れかに記載のショベル。
  8. 前記第1領域の縁は直線部分又は曲線部分を含み、
    前記第2領域の表示態様は、前記物体検知機能の作動状態の変化に応じて変わり、
    前記第2領域は、前記第1領域の前記縁の直線部分又は曲線部分に沿うように配置される、
    請求項乃至5の何れかに記載のショベル。
  9. 前記第1領域の縁は曲線部分を含み、
    前記第2領域の表示態様は、前記物体検知機能の作動状態の変化に応じて変わり、
    前記第2領域は、前記第1領域の縁に沿った曲線部分を含む、
    請求項乃至5の何れかに記載のショベル。
  10. 前記撮像装置が撮像した画像は、ショベルの周囲を上方から見た周囲画像を含み、
    前記周囲画像は、近景画像部分と遠景画像部分とを含み、且つ、前記第1領域に表示され、
    前記第2領域は、前記遠景画像部分に沿って配置される、
    請求項乃至9の何れかに記載のショベル。
  11. 前記物体検知機能は、前記撮像装置としての複数のカメラに対応する複数の撮像範囲のそれぞれに対応付けられ、
    前記第2領域は、複数のカメラのうちの1つが撮像した画像が表示されているとき、該表示されている複数のカメラのうちの1つが撮像した画像の上辺及び下辺の少なくとも一方の外側に配置される、
    請求項乃至10の何れかに記載のショベル。
  12. 前記撮像装置が撮像した画像は、ショベルの周囲を上方から見た周囲画像を含み、
    前記周囲画像は、前記第1領域とは異なる場所にある前記第2領域の外側に配置される、
    請求項乃至11の何れかに記載のショベル。
  13. 前記物体検知機能に関する検知範囲は、複数の部分検知範囲で構成され、
    前記表示装置は、前記複数の部分検知範囲のそれぞれに関する前記物体検知機能の作動状態を個別に表示する、
    請求項1乃至12の何れかに記載のショベル。
  14. 前記撮像装置としてのカメラが撮像した画像から出力画像を生成する制御装置と、
    ショベルの周囲に設定された所定の検知範囲内へ侵入した人を検知する人検知手段と、を備え、
    前記表示装置に表示される前記出力画像において、前記人検知手段による人検知機能の作動状態を表示する、
    請求項1乃至13の何れかに記載のショベル。
  15. 前記表示装置は、前記物体検知機能の作動状態を文字情報又はアイコン画像で表示する、
    請求項1乃至14の何れかに記載のショベル。
  16. 前記物体検知機能の作動状態は、前記撮像装置としてのカメラが撮像した画像、前記カメラとは別のセンサが取得した情報、又は、前記カメラが撮像した画像と前記センサが取得した情報に基づいて判定される、
    請求項1乃至15の何れかに記載のショベル。
  17. 前記物体検知機能は、ショベルの周囲に設定された所定の検知範囲内で所定の物体を検知する機能であり、
    前記所定の検知範囲は、バケットが到達可能な範囲、又は、ショベルの旋回軸から所定距離の範囲である、
    請求項1乃至16の何れかに記載のショベル。
JP2018526335A 2016-07-05 2017-06-30 ショベル Active JP6812432B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016133409 2016-07-05
JP2016133409 2016-07-05
PCT/JP2017/024123 WO2018008542A1 (ja) 2016-07-05 2017-06-30 ショベル

Publications (2)

Publication Number Publication Date
JPWO2018008542A1 JPWO2018008542A1 (ja) 2019-04-18
JP6812432B2 true JP6812432B2 (ja) 2021-01-13

Family

ID=60912829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018526335A Active JP6812432B2 (ja) 2016-07-05 2017-06-30 ショベル

Country Status (6)

Country Link
US (1) US10920403B2 (ja)
EP (1) EP3483349A4 (ja)
JP (1) JP6812432B2 (ja)
KR (1) KR102386846B1 (ja)
CN (1) CN109154154A (ja)
WO (1) WO2018008542A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6794879B2 (ja) * 2017-03-10 2020-12-02 株式会社タダノ 作業車両用の人物検知システムおよびこれを備える作業車両
JP2019153932A (ja) * 2018-03-02 2019-09-12 アイシン精機株式会社 汚れ報知装置
JP7070047B2 (ja) * 2018-04-26 2022-05-18 コベルコ建機株式会社 旋回式作業機械の旋回制御装置
JP7138521B2 (ja) * 2018-09-12 2022-09-16 大阪瓦斯株式会社 物体検出センサ及び警報器
JP2020063569A (ja) * 2018-10-15 2020-04-23 日立建機株式会社 油圧ショベル
JP2020125672A (ja) * 2019-01-15 2020-08-20 株式会社カナモト 建設機械の安全装置
JP7111641B2 (ja) * 2019-03-14 2022-08-02 日立建機株式会社 建設機械
CN113728141B (zh) * 2019-04-26 2024-04-09 住友建机株式会社 挖土机
WO2021025123A1 (ja) * 2019-08-08 2021-02-11 住友建機株式会社 ショベル、情報処理装置
JP7479156B2 (ja) * 2020-01-30 2024-05-08 住友重機械工業株式会社 作業機械、情報処理装置
US11840823B2 (en) 2021-03-30 2023-12-12 Darrell Cobb Backhoe camera assembly
JP2023019920A (ja) * 2021-07-30 2023-02-09 ヤンマーホールディングス株式会社 作業機械の制御方法、作業機械用制御プログラム、作業機械用制御システム及び作業機械

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008179940A (ja) * 2005-03-31 2008-08-07 Hitachi Constr Mach Co Ltd 作業機械の周囲監視装置
JP2008232832A (ja) * 2007-03-20 2008-10-02 Denso Corp 干渉判定方法,fmcwレーダ
JP4991384B2 (ja) * 2007-05-08 2012-08-01 株式会社日立製作所 接近物検知装置及び接近物検知プログラム
JP5227841B2 (ja) 2009-02-27 2013-07-03 日立建機株式会社 周囲監視装置
WO2011158955A1 (ja) * 2010-06-18 2011-12-22 日立建機株式会社 作業機械の周囲監視装置
JP5341044B2 (ja) * 2010-09-29 2013-11-13 日立建機株式会社 作業機械の表示システム
JP5667638B2 (ja) * 2010-10-22 2015-02-12 日立建機株式会社 作業機械の周辺監視装置
FR2979901B1 (fr) * 2011-09-09 2013-09-06 Snecma Procede de synchronisation des moteurs d'un avion
JP5888956B2 (ja) * 2011-12-13 2016-03-22 住友建機株式会社 ショベル及び該ショベルの周囲画像表示方法
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces
JP6386213B2 (ja) 2013-05-16 2018-09-05 住友建機株式会社 ショベル
JP6214976B2 (ja) * 2013-09-11 2017-10-18 住友建機株式会社 建設機械
US9317937B2 (en) * 2013-12-30 2016-04-19 Skribb.it Inc. Recognition of user drawn graphical objects based on detected regions within a coordinate-plane
JP6246014B2 (ja) * 2014-02-18 2017-12-13 クラリオン株式会社 外界認識システム、車両、及びカメラの汚れ検出方法
CA2863656C (en) * 2014-04-25 2017-04-25 Takeshi Kurihara Surroundings monitoring system, work vehicle, and surroundings monitoring method
CN105283777B (zh) * 2014-04-25 2019-09-24 株式会社小松制作所 周边监视系统、作业车辆以及周边监视方法
EP3154025B1 (en) * 2014-06-03 2021-10-13 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
WO2016013691A1 (ja) 2015-10-15 2016-01-28 株式会社小松製作所 位置計測システム及び位置計測方法

Also Published As

Publication number Publication date
KR102386846B1 (ko) 2022-04-13
EP3483349A1 (en) 2019-05-15
JPWO2018008542A1 (ja) 2019-04-18
EP3483349A4 (en) 2019-07-31
US10920403B2 (en) 2021-02-16
WO2018008542A1 (ja) 2018-01-11
KR20190022468A (ko) 2019-03-06
US20190093317A1 (en) 2019-03-28
CN109154154A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
JP6812432B2 (ja) ショベル
JP6262068B2 (ja) 車体近傍障害物報知システム
JP6251453B1 (ja) 作業車両の周辺監視システム、作業車両、及び作業車両の周辺監視方法
US9776566B2 (en) Environment monitoring device for operating machinery
JP6346375B1 (ja) 作業車両及び表示装置
CA2863656C (en) Surroundings monitoring system, work vehicle, and surroundings monitoring method
WO2017038123A1 (ja) 車両の周囲監視装置
JP4713600B2 (ja) 建設機械用表示システム
JP2013253402A (ja) 作業機械の周囲監視装置
WO2019189430A1 (ja) 建設機械
WO2001028250A1 (en) Monitor camera, method of adjusting camera, and vehicle monitor system
JP7058582B2 (ja) 作業機械
JP2004343297A (ja) 建設機械の周囲監視装置
JP2014161087A (ja) 作業車両用周辺監視システム及び作業車両
JP5949509B2 (ja) 相互認識通知システム、および相互認識通知装置
KR20170065738A (ko) 헤드업 디스플레이 제어 장치 및 방법
WO2021187082A1 (ja) 作業機械および作業機械の制御方法
JP2010234857A (ja) 車両用表示装置
JP7462520B2 (ja) 作業車両及び報知方法
JP7329928B2 (ja) 作業機械
JP2022082487A (ja) 周辺画像生成装置、表示制御方法
JP2022156497A (ja) 転圧機械
JP2020158996A (ja) アスファルトフィニッシャ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20190617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R150 Certificate of patent or registration of utility model

Ref document number: 6812432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150