JP2020194243A - 作業分析システム、作業分析装置、および作業分析プログラム - Google Patents

作業分析システム、作業分析装置、および作業分析プログラム Download PDF

Info

Publication number
JP2020194243A
JP2020194243A JP2019098114A JP2019098114A JP2020194243A JP 2020194243 A JP2020194243 A JP 2020194243A JP 2019098114 A JP2019098114 A JP 2019098114A JP 2019098114 A JP2019098114 A JP 2019098114A JP 2020194243 A JP2020194243 A JP 2020194243A
Authority
JP
Japan
Prior art keywords
work
unit
analysis system
position information
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019098114A
Other languages
English (en)
Other versions
JP7277256B2 (ja
Inventor
諒 今井
Makoto Imai
諒 今井
鷹彦 菖蒲
Takahiko Shobu
鷹彦 菖蒲
亮太 石川
Ryota Ishikawa
亮太 石川
英郷 小島
Hidesato Kojima
英郷 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Konica Minolta Inc
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Konica Minolta Inc
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Konica Minolta Inc, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2019098114A priority Critical patent/JP7277256B2/ja
Priority to EP20813794.3A priority patent/EP3979156A4/en
Priority to PCT/JP2020/015195 priority patent/WO2020241043A1/ja
Priority to US17/613,644 priority patent/US20220237533A1/en
Publication of JP2020194243A publication Critical patent/JP2020194243A/ja
Application granted granted Critical
Publication of JP7277256B2 publication Critical patent/JP7277256B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

【課題】周囲の状況が日々変わる現場であっても、作業履歴を記録可能とする。【解決手段】作業分析システム1は、測定部10が作業領域90を測定して得られた測定データから作業機械80、および人85を含む物体を認識し、認識した物体の位置情報、および物体の形状に関する特徴量を判定する物体認識部222と、物体認識部222が認識した、物体の位置、他の物体との位置関係、および特徴量から、作業領域内90で行われた作業を判定する判定部223と、を備える。【選択図】図5

Description

本発明は、作業分析システム、作業分析装置、および作業分析プログラムに関する。
生産現場等では、生産性向上のため工程の作業を分析し、これを改善するというサイクルを繰り返すことで、生産性の向上を図っている。
作業分析と作業の改善を行う上で、工程の作業を把握することが必要となる。特許文献1には、作業現場での作業内容を容易に把握することを目的とした作業データ管理システムが開示されている。この作業管理システムは、作業現場を撮影するように、2つのネットワークカメラを配置し、これから得られた映像により、作業者の頭と、作業者の手の位置を特定する。そして、取得した作業者の工程データ(大工程データ)を、得られた映像から特定した頭と、手の位置から詳細工程に時系列に細分化し、ガントチャートとして結果表示手段に表示する。
特開2019−16226号公報
しかしながら、特許文献1において、作業者の頭や手の位置と、作業機械との位置関係により、どのような作業を行ったのかを判定するものである(図3等)。そのためこの技術は、屋内製造現場において固定の作業機械を使用する製造現場でしか適用できない。例えば、屋外の建設現場や工事現場のような日々、周囲の環境が変わったり、作業機械または作業場所の位置が変わったりする現場では、特許文献1の技術を適用することは困難である。
本発明は、上記事情に鑑みてなされたものであり、周囲の状況が日々変わる現場であっても、作業履歴の記録が可能な、作業分析システム、作業分析装置、および作業分析プログラムを提供することを目的とする。
本発明の上記目的は、下記の手段によって達成される。
(1)作業領域内を測定し、時系列の測定データを取得する測定部と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
を備える作業分析システム。
(2)記憶部に前記作業領域内で行われる作業計画であって1つ以上の前記作業を含む作業計画、および前記作業について実行されたか否かを判定するための作業判定基準が記憶され、前記判定部は、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、上記(1)に記載の作業分析システム。
(3)記憶部に前記作業領域内で行われる作業計画であって1つ以上の前記作業を含む作業計画が記憶され、
前記判定部は、前記作業計画、および作業判定基準に関する学習済みモデルを用いて、前記作業の判定を行い、
前記学習済みモデルは、入力を、前記物体認識部が認識した前記物体の位置、他の物体との位置関係、および前記特徴量の情報、出力を前記作業の分類の正解ラベルをセットとして教師あり学習したものである、上記(1)に記載の作業分析システム。
(4)前記測定部は、ライダーを含み、前記測定データとして、前記作業領域内を前記ライダーで測距して得られた測距点群データを取得する、上記(1)から上記(3)の何れかに記載の作業分析システム。
(5)前記物体認識部は、前記測距点群データを用いて、前記物体を認識し、認識した前記物体の位置情報を判定する、
上記(4)に記載の作業分析システム。
(6)前記物体認識部は、前記測距点群データを用いて、前記特徴量の認識を行う、
上記(4)、または上記(5)に記載の作業分析システム。
(7)前記測定部は、カメラを含み、前記測定データとして、前記作業領域内を撮影して得られた映像データを取得する、上記(1)から上記(4)の何れかに記載の作業分析システム。
(8)前記物体認識部は、前記映像データを画像解析することで、前記物体の認識し、認識した前記物体の位置情報の判定を行う、上記(7)に記載の作業分析システム。
(9)前記物体認識部は、前記映像データを画像解析することで、前記特徴量の認識を行う、
上記(7)、または上記(8)に記載の作業分析システム。
(10)さらに、前記物体が保有する位置情報デバイスの位置情報を取得する取得部を備え、
前記物体認識部は、前記位置情報デバイスから取得した位置情報により、前記物体の認識、および前記物体の位置情報の判定を行う、上記(1)から上記(4)、および上記(7)の何れかに記載の作業分析システム。
(11)前記作業機械は、本体部と、該本体部に取り付けられ前記本体部に対する相対位置が変化する1つ以上の稼働部を有し、
前記取得部が、前記本体部、および前記稼働部にそれぞれ取り付けられた前記位置情報デバイスから取得した位置情報により、
前記物体認識部は、前記作業機械の前記特徴量を認識し、
前記判定部は、前記作業の判定を、認識した前記特徴量を用いて行う、上記(10)に記載の作業分析システム。
(12)前記判定部は、時系列の前記物体の位置の変化から検出した、前記物体の移動速度を用いて、前記作業を判定する、上記(1)から上記(11)の何れかに記載の作業分析システム。
(13)前記判定部は、前記物体の前記移動速度から判断した、前記物体の移動、および停止の状態を用いて、前記作業を判定する、上記(12)に記載の作業分析システム。
(14)前記作業機械に取り付けられた加速度センサーからの出力データを取得する取得部を備え、
前記判定部は、前記加速度センサーからの出力データから判断した、前記作業機械の移動、および停止の状態を用いて前記作業を判定する、上記(12)に記載の作業分析システム。
(15)前記判定部による判定結果を用いて、ガントチャート、物体毎の作業割合、および、物体毎の前記作業領域内の動線もしくはヒートマップの少なくとも何れかに関する作業分析情報を生成する出力生成部を、さらに備える、上記(1)から上記(14)の何れかに記載の作業分析システム。
(16)作業領域内を測定する測定部から、時系列の測定データを取得する取得部と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
を備える作業分析装置。
(17)作業領域内を測定する測定部を備える、作業分析システムを制御するコンピューターで実行される作業分析プログラムであって、
前記測定部により作業領域内を測定し、時系列の測定データを取得するステップ(a)と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定するステップ(b)と、
前記ステップ(b)で認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定するステップ(c)と、
を含む処理を前記コンピューターに実行させるための作業分析プログラム。
(18)前記処理は、前記作業領域内で行われる1つ以上の前記作業を含む作業計画、および前記作業について実行されたか否かを判定するための作業判定基準を取得するステップ(d)を、さらに含み、
前記ステップ(c)では、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、上記(17)に記載の作業分析プログラム。
本発明に係る作業分析システムは、測定部が作業領域を測定して得られた測定データから作業機械、および人を含む物体を認識し、認識した物体の位置情報、および物体の形状に関する特徴量を判定する物体認識部と、物体認識部が認識した、物体の位置、他の物体との位置関係、および特徴量から、作業領域内で行われた作業を判定する判定部と、を備える。これにより、周囲の状況が日々変わる現場であっても、作業履歴の記録が可能となる。
第1の実施形態に係る作業分析システムの主要構成を示すブロック図である。 作業分析システムが用いられる作業領域の一例を示す模式図である。 ライダーの構成を示す断面図である。 ライダーの測定データから作成した表示画像(上面視)である。 作業分析システムが実行する作業分析処理を示すメインのフローチャートである。 検知物リストの例である。 図5のステップS20の処理を示すサブルーチンフローチャートである。 作業計画の例である。 作業計画の例である。 図7のステップS32の処理を示すサブルーチンフローチャートである。 作業判定基準の例である。 作業判定結果の例である。 図7のステップS34の処理を示すサブルーチンフローチャートである。 図7のステップS34の処理を示すサブルーチンフローチャートである。 ステップS506の作業内容「移動」の状況を示す図である。 ステップS505、S605の作業内容「積み込み」の状況を示す図である。 ステップS507、S607の作業内容「搬出」、「移動2」の状況を示す図である。 図7のステップS34の処理を示すサブルーチンフローチャートである。 作業判定基準の例である。 吹付け工程における作業領域90の一例を示す模式図である。 第2の実施形態における作業分析システムの主要構成を示すブロック図である。 第3の実施形態における作業分析システムの主要構成を示すブロック図である。 出力例(ガントチャート)である。 出力例(動線)である。
以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、作業分析システム1の主要構成を示すブロック図である。図2は、作業分析システム1が用いられる作業領域90の一例を示す図である。図3は、ライダー11の構成を示す断面図である。
図1に示すように作業分析システム1は、測定部10、作業分析装置20を備え、これらはPC端末30と接続している。
作業分析装置20は、記憶部21、制御部22、および通信部23を備える。また、作業分析装置20は、測定部10、およびPC端末30と通信接続する。作業分析装置20は、測定部10と一体で構成し、同じ筐体内に配置してもよく、別体で構成してもよい。PC端末30は、作業分析システム1とローカル、またはネットワーク接続したパーソナルコンピューターである。作業分析システム1は、PC端末30から入力された作業計画を取得し、これを用いて分析した分析結果を、PC端末30に出力する。
作業分析システム1は、図2に示すような工事現場等の作業領域90を対象として、作業領域90での作業履歴の記録、および管理を支援する。作業分析システム1の適用範囲は、図2に示すような工事現場に限られず、屋内もしくは屋外の建設現場、屋内の製造工程、または物流倉庫の作業領域に適用してもよい。また、作業領域は、1つの区画化された領域ではなく、例えば分離した複数の作業領域であってもよい。
作業領域90内には、複数の作業機械80(801〜803)、および作業者85が、移動し、作業する。図2では、作業領域90の例として、山岳トンネル掘削の工事現場を示している。作業領域90には、坑口91(トンネル入口)がある。
以下において作業機械801〜803を総称する場合には、単に作業機械80という(後述の作業者85も同様)。作業機械80は、作業領域90で用いられる電気またはエンジンの動力により機械的に稼働する機械、特に車両である。作業機械80には、例えば、アーティタンプ、ホイールローダー、バックフォー、パワーショベル、ブレーカー、ミキサー車、コンクリート吹付け用の吹付機、等が含まれる。図2の例では、作業機械801、802、803は、それぞれアーティタンプ、バックフォー、ホイールローダーの種類の作業機械である。また、作業領域90が、製造現場であれば、作業機械80には、設置クレーン、組立装置、運搬用のフォークリフト等の車両、自走クレーンが含まれる。これらの作業機械80のサイズ、形状のデータは、予め記憶部21に登録されている。
測定部10は、作業領域90を対象として、その中で稼働する作業機械80等の位置情報を検出する。図1、図3に示す例では、測定部10は、ライダー11(LiDAR:Light Detection and Ranging)を備える。ライダー11は、図2に示すような作業領域90内の一部または全部を測定空間とし、測定空間内を走査することで、測定空間内の全領域で対象物の検出を行う。画素毎に対象物までの距離情報を持つ測距点群データ(「3Dマップ」ともいう)を生成する。測距点群データにより対象物の3次元的な位置情報が得られる。図2においては、1のライダー11を用いて作業領域90の全域を測定空間としているが、複数のライダー11を、その測定空間の一部が重複するように配置することで、より広い領域を測定できる。なお、複数のライダー11でそれぞれ得られた測距点群データは、座標変換することにより、1つの座標系に統合するようにしてもよい。また、処理が煩雑になるのを避けるため、座標系の統合を行わず、測定空間内の物体(動体)を認識した場合に、その物体の対応づけだけを行うようにしてもよい。また、ライダー11は、1秒あたり数フレーム〜数十フレームの周期(fps)で、連続的に所定周期の時系列の測距点群データを取得する。
なお、測定部10は、ライダー11に換えて、または、ライダー11とともに他の種類の測定器を用いてもよい。例えば、後述するようにステレオカメラを用いて測距点群データを生成するようにしてもよい。あるいは、後述するように他の種類の測定器として、作業者(対象物)が携帯する無線端末で3箇所以上の位置から発信されたWi−fiやビーコンからの無線信号の電波強度等の情報を取得し、この電波強度等の情報から作業領域90内における位置を検出するようにしてもよい。
(ライダー11)
以下、図3を参照し、ライダー11の構成について説明する。図3は、ライダー11の概略構成を示す断面図である。ライダー11は、投受光ユニット111を有する。投受光ユニット111は、半導体レーザー51、コリメートレンズ52、ミラーユニット53、レンズ54、フォトダイオード55、およびモーター56、ならびにこれらの各構成部材を収容する筐体57を有する。筐体57内には、制御部22の取得部221が配置されている。投受光ユニット111は、レーザースポット光によりライダー11の測定空間内を走査することで得られた各画素の受光信号を出力する。取得部221は、この受光信号に基づいて、測距点群データを生成する。この測距点群データは距離画像、または距離マップとも称される。
半導体レーザー51は、パルス状のレーザー光束を出射する。コリメートレンズ52は、半導体レーザー51からの発散光を平行光に変換する。ミラーユニット53は、コリメートレンズ52で平行とされたレーザー光を、回転するミラー面により測定領域に向かって走査投光するとともに、対象物からの反射光を反射させる。レンズ54は、ミラーユニット53で反射された対象物からの反射光を集光する。フォトダイオード55は、レンズ54により集光された光を受光し、Y方向に並んだ複数の画素を有する。モーター56はミラーユニット53を回転駆動する。
取得部221は、これらの半導体レーザー51の出射タイミングと、フォトダイオード55の受光タイミングとの時間間隔(時間差)に基づいて距離情報(距離値)を求める。取得部221は、CPUとメモリで構成され、メモリに記憶しているプログラムを実行することにより各種の処理を実行することによって測距点群データを求めるが、測距点群データ生成用の専用ハードウェア回路を備えてもよい。また、取得部221は、作業分析システム1本体の筐体内部に組み込まれ、ハードウェア的に統合されてもよい。
本実施形態において、半導体レーザー51とコリメートレンズ52とで出射部501を構成し、レンズ54とフォトダイオード55とで受光部502を構成する。出射部501、受光部502の光軸は、ミラーユニット53の回転軸530に対して直交していることが好ましい。
作業領域90を認識できるように、高台にあるポール62に固定して設置されたボックス状の筐体57は、上壁57aと、これに対向する下壁57bと、上壁57aと下壁57bとを連結する側壁57cとを有する。側壁57cの一部に開口57dが形成され、開口57dには透明板58が取り付けられている。
ミラーユニット53は、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面531a、531bを4対(但し4対に限られない)有している。ミラー面531a、531bは、ミラーユニットの形状をした樹脂素材(例えばPC(ポリカーボネート))の表面に、反射膜を蒸着することにより形成されていることが好ましい。
ミラーユニット53は、筐体57に固定されたモーター56の軸56aに連結され、回転駆動されるようになっている。本実施形態では、例えば、ポール62に設置された状態で、軸56aの軸線(回転軸線)が鉛直方向であるY方向に延在しており、Y方向に直交するX方向およびZ方向によりなすXZ平面が水平面となっているが、軸56aの軸線を鉛直方向に対して傾けてもよい。
次に、ライダー11の対象物検出原理について説明する。図3において、半導体レーザー51からパルス状に間欠的に出射された発散光は、コリメートレンズ52で平行光束に変換され、回転するミラーユニット53の第1ミラー面531aに入射する。その後、第1ミラー面531aで反射され、さらに第2ミラー面531bで反射した後、透明板58を透過して外部の測定空間に向けて、例えば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、レーザースポット光が出射される方向と、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向は重複し、この重複する2方向を投受光方向という(なお、図3では分かり易さのため、図面では出射光と反射光をずらして示している)。同一の投受光方向に進行するレーザースポット光は、同一の画素で検出される。
ここで、ミラーユニット53の対のミラー(例えば第1ミラー面531aと第2ミラー面531b)の組み合わせにおいて、4対はそれぞれ交差角が異なっている。レーザー光は、回転する第1ミラー面531aと第2ミラー面531bにて、順次反射される。まず1番対の第1ミラー面531aと第2ミラー面531bにて反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の一番上の領域を水平方向(「主走査方向」ともいう)に左から右へと走査される。次に、2番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から2番目の領域を水平方向に左から右へと走査される。次に、3番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から3番目の領域を水平方向に左から右へと走査される。次に、4番対の第1ミラー面531aと第2ミラー面で反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の最も下の領域を水平方向に左から右へと走査される。これによりライダー11が測定可能な測定空間全体の1回の走査が完了する。この4つの領域の走査により得られた画像を組み合わせて、1つのフレームが得られる。そして、ミラーユニット53が1回転した後、再び1番対の第1ミラー面531aと第2ミラー面531bに戻り、以降は測定空間の一番上の領域から最も下の領域までの走査(この上下方向を「副走査方向」ともいう)を繰り返し、次のフレームが得られる。
図3において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板58を透過して筐体57内のミラーユニット53の第2ミラー面531bに入射し、ここで反射され、さらに第1ミラー面531aで反射されて、レンズ54により集光され、それぞれフォトダイオード55の受光面で画素毎に検知される。さらに、取得部221が、半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報を求める。これにより測定空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ測距点群データとしてのフレームを得ることができる。また、ユーザーの指示により、得られた測距点群データを背景画像データとして、取得部221内のメモリ、または記憶部21に記憶してもよい。
図4は、ライダーの測定データから作成した表示画像である。図2の作業領域90を測定することで得られた測距点群データから生成した上面視の表示画像である。同図の距離(0m、10m等)はライダー11の位置からの距離に対応する。また同図の物体ob1は、図2の作業機械801に対応する。なお、同図においては、作業領域90のうち、積み込みエリア周辺のみプロットしており、待機エリア周辺については記載を省略している(以下、図14(b)、図15(b)等で同じ)。
(作業分析システム1)
図1を再び参照し、作業分析システム1について説明する。作業分析システム1は、例えば、コンピューターであり、CPU(Central Processing Unit)、メモリ(半導体メモリ、磁気記録媒体(ハードディスク等))、入出力部(ディスプレイ、キーボード、等)、等を備える。
上述したように、作業分析システム1は、記憶部21、制御部22、および通信部23を備える。記憶部21はメモリで構成される。制御部22は、主にメモリ、およびCPUで構成される。なお制御部22の一部の機能構成(取得部221)は、ライダー11の筐体57に配置したハードウェアにより実現し、他の機能構成は、別の筐体に配置するようにしてもよい。その場合、他の機能構成は、作業領域90の近くに配置されてもよく、遠隔地に配置し、他の機器(測定部10等)とネットワーク接続するようにしてもよい。
通信部23は、PC端末30等の外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いてもよい。また、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースを用いてもよい。
制御部22は、上述した取得部221の他に、物体認識部222、判定部223、出力生成部224として機能する。ここで制御部22の機能を説明する前に記憶部21に記憶されている各データについて説明する。
(記憶部21)
記憶部21には、検知物リスト(検知物体リストともいう)、位置情報履歴データ、作業判定基準、作業計画、等が記憶される。
「検知物リスト」は、制御部22(物体認識部222)によって実行された認識処理(後述)により、認識された物体(作業機械80、作業者85、等)に対して、内部管理用の検知IDを付与し、検知IDにより、物体の追跡を行う。また、検知物リストには、検知ID毎の各時刻の位置、物体の種類(作業機械の種類)、後述の処理により特定(分類)した作業が記述される。
「位置情報履歴データ」は、所定時間の間、連続的に認識された物体(作業機械80、作業者85、等)の位置の推移を示す履歴データである。
「作業計画」は、作業履歴を記録する当日に、作業領域90で行われる作業工程を記述した計画書である。例えば、日毎にPC端末30を通じて入力されたものである。作業計画の例については後述する(図8等)。制御部22の判定部223は、この作業計画を参照しながら、作業領域90内で行われた、作業工程を判別する。
「作業判定基準」は、予めユーザーにより設定されたルールベースの判定基準である。作業判定基準の例については後述する(図10等)。制御部22の判定部223は、この作業判定基準を用いて、作業の判定(同定、分類)を行える。作業判定基準を用いることにより、管理者(システムのユーザー)が分析に必要とする条件にカスタマイズできたり、精度の調整が可能になったりする。
(制御部22)
次に、制御部22の取得部221、物体認識部222、判定部223、および出力生成部224の各機能について説明する。
(取得部221)
取得部221の機能については、上述したとおりである。取得部221は、測定時に、ライダー11の投受光ユニット111により、複数の照射方向に向けた送信波を、作業領域90の測定空間に渡って照射し、測定空間内の物体(対象物)からの送信波の反射波に応じた受信信号を取得する。そして、この受信信号の受信タイミング(送受信の時間間隔)に応じて複数の照射方向における、それぞれの距離情報を得る。そしてこれにより、測距点群データを生成する。
(物体認識部222)
物体認識部222は、作業領域90内の物体を認識する。本実施形態では、例えば背景差分法を採用する。この背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)データを用いる。具体的には、測定の前準備(前処理)として、ユーザーの指示により、設置型機械以外の作業機械80や作業者85等の移動物体が存在しない状態で、ライダー11からレーザースポット光を走査する。これにより背景対象物(静止物)から得られた反射光に基づいて、背景画像を得る。実際の測定時においては、背景対象物の手前に行動解析の対象である物体として例えば作業機械80が作業領域90内に現れた場合、作業機械80からの反射光が新たに生じる。
物体認識部222は、動体を認識する機能を有する。物体認識部222はメモリに保持している背景画像データと現時点での測距点群データとを比較して、差が生じた場合、作業機械80等の何らかの動体(前景の物体)が作業領域90内に現れたことを認識できる。例えば、背景差分法を用いて、背景データと、現時点での測距点群データ(距離画像データ)とを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、物体認識部222は算定したサイズが抽出対象の解析対象の動体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は任意に設定できる。例えば、作業領域90で想定される動体の大きさに基づいて設定できる。作業者85、または作業機械80を追跡して行動(軌跡)を解析するのであれば、作業者85、または作業機械80の最小値を、クラスタリングする場合のサイズ閾値とすればよい。これにより、落ち葉やビニール袋等のゴミ、または小動物を検知対象から除外できる。
また、物体認識部222は、認識した物体の種類の認識、および物体の形状に関する特徴量を認識する。具体的には、物体の種類の認識として、作業領域90内で作業する可能性がある作業機械(アーティタンプ、ホイールローダー、吹付機、ショベルカー)等のサイズ、形状に関する特徴データを予め記憶しておき、この特徴データとのマッチング度により、作業機械80の種類を認識する。また、本体部と稼働部で構成される特定の作業機械80に関しては、特徴量の認識も行う。例えば、ホイールローダーまたはショベルカーは、運転席がある車両本体部と、この車両本体部との相対位置が変化する稼働部としてのアーム、およびバケットがある。認識部は、特徴量として、作業機械80の外郭形状、または全体のサイズにより、(1)このアームが上がったり、前方に延びたりした状態であるか、または(2)アームが下がったり、縮んだりした状態であるかが、判別できる形状に関する特徴量を認識する。特徴量としては、形状データであってもよく、例えばアームが上がった状態であることを示す情報であってもよい。特定の作業機械80に関するアーム等の稼働部と本体部との位置関係と、特徴量との対応関係については、予め記憶部21に記憶されている。また、物体認識部222は、物体の種類が人(作業者)の場合には、さらに認識した腕の位置や、手押しの台車を含めた全体の形状の特徴量から、作業者が物を運搬しているか否かを認識するようにしてもよい。
なお、物体の種類、および特徴量の認識については、学習済みモデルを用いて認識するようにしてもよい。これは、ライダー11で得られた測距点群データから認識した物体について、正解ラベル(作業機械の種類、または作業機械の種類および特徴量)を付与した多数の学習サンプルデータを用いることで教師あり学習により機械学習できる。
さらに、上述においては、「作業判定基準」として、予めユーザーにより設定されたルールベースの判定基準を用いる例を説明したが、これに限られず、作業判定基準として、機械学習による学習済みモデルを用いてもよい。この学習済みモデルは、入力を、物体認識部222が認識した物体の位置、他の物体との位置関係、および特徴量の情報とする。そして、出力を作業の分類の正解ラベルとして教師あり学習したものである。これらの機械学習に関する学習機は、CPUおよびGPU(Graphics Processing Unit)のプロセッサを用いたスタンドアロンの高性能のコンピューター、またはクラウドコンピューターを用いて行える。このような学習済みモデルを用いることで、ユーザーは、ルールベースの作業判定基準の入力を省略できるので、管理が容易になる。
(判定部223)
判定部223は、物体認識部222が認識した物体の位置、他の物体との位置関係、および特徴量から、作業領域90内で行われた作業を判定(分類)する。ここで他の物体との位置関係(相対的な位置関係)とは、複数の物体の中心位置間の距離を用いてもよく、物体同士の輪郭間の距離、すなわち「隙間」を用いてもよい。この他の物体との位置関係の算出は、認識した物体を囲むバウンディングボックスの中心位置から算出してもよく、2つのバウンディングボックスを構成する頂点、辺(または面)との最近接距離から算出できる。このバウンディングボックスは、例えば物体を囲む最小の面積(体積)となる1つの直方体である。バウンディングボックスの頂点、辺(面)の位置は、それぞれのバウンディングボックスの座標(中心位置)、サイズ(幅、高さ、奥行き)、回転角θ(上面視における回転角度(物体の向き)により求められる。
また、判定部223は、さらに、算出した物体の移動速度から、移動、停止の判定を行う。また、この作業の判定には、上述の作業計画、および作業判定基準を用いてもよい。判定結果には、作業機械の種類、および分類した作業名が含まれる。この判定結果は、検知物リストにも記録される。この作業の判定に関する作業分析処理の詳細については後述する。
(出力生成部224)
出力生成部224は、判定部223の判定結果のデータを分析し、加工することで、作業分析情報を生成する。作業分析情報には、判定結果の分析結果、およびこの分析結果を可視化した表示用データが含まれる。分析により生成される表示用データには、ガントチャート、物体(作業機械、作業者)毎の作業割合(円グラフ)、および、物体毎の作業領域内の動線もしくはヒートマップが含まれる。なお、この作業分析情報の生成は、予め設定された項目について、自動的に生成し、所定の出力先に出力するようにしてもよく、PC端末30を通じたユーザーからの要求に応じて、都度生成し、出力するようにしてもよい。
(作業分析処理)
次に、図5〜図19を参照し、作業分析システム、および作業分析装置により行われる作業分析処理について説明する。図5は、作業分析処理を示すメインのフローチャートである。
(ステップS10)
最初に、作業分析システム1の取得部221は、測定部10のライダー11を制御し、作業領域90内を測定し、測距点群データを取得する。
(ステップS11)
物体認識部222は、ステップS10で得られた測距点群データから、作業領域90内の物体を認識する。また、物体認識部22は、ここで認識した物体の種類情報を認識するようにしてもよい。例えば、物体が人であるか、あるいは作業機械であるか認識し、作業機械の場合には、さらにどの種類(ホイールローダー、アーティタンプ等)の作業機械80であるかを認識する。
(ステップS12)
制御部22は、ステップS11で認識した物体が、検知物リストに記録されている既知の物体であれば(YES)、処理をステップS13に進める。一方で、新たに認識された物体であれば(NO)、処理をステップS14に進める。
(ステップS13)
制御部22は、検知物リストを更新し、既存の物体IDの情報に位置情報、またはこの位置情報と特徴量を追記し、更新する。
(ステップS14)
制御部22は、新たに認識した物体に関しては、追跡に用いるため連続した任意の番号(物体ID)を新たに付与し、検知物リストに記録する。
(ステップS15)
制御部22は、認識した物体の移動軌跡を記録する。この記録は、位置情報履歴データとして記憶部21に保存される。
(ステップS16)
物体認識部222は、移動軌跡から物体の移動、または停止を判定する。具体的には、複数フレーム(1秒から数秒相当)に渡る位置の移動量から速度を算出し、所定速度以上の場合には移動と判定し、所定速度未満の場合には停止と判定する。判定に用いる所定速度としては、例えば1km/hourである。
(ステップS17)
物体認識部222は、物体の特徴量を認識する。特徴量としては、上述のように、稼働部がある作業機械の場合に、稼働部の状態が判別できるように、特徴量として作業機械80の輪郭形状、または全体のサイズを認識する。また、この特徴量として、上述のようにアームが上がった状態であるか否かの情報でもよい。
(ステップS18)
制御部22は、ステップS16、S17で認識した移動/停止の判定結果、および特徴量を検知物リストに記録し、データを更新する。
(ステップS19)
制御部22は、未処理の物体がなければ(YES)、処理をステップS20に進め、未処理の物体があれば(NO)、処理をステップS12に戻し、次の物体に対しての処理を行う。
(ステップS20)
判定部223は、このステップS20では、後述する図7のサブルーチンフローチャートにより、作業を判定(同定)、すなわち作業内容を判定する。
(ステップS21)
制御部22は、判定した作業を、検知リスト等に記録する。図6は、検知物リストの例である。同図に示すように検知物リストには、上述の処理で認識された物体の検知ID、各時刻における検知座標、サイズ情報、移動/停止の判定結果、特徴(特徴量)、および判定した作業内容が含まれる。この判定した作業内容は、ステップS20で判定(同定)されたものである。なお、同図では省略しているが検知ID毎に物体の種類の情報が含まれる(人、作業機械(および種類)、その他の物体)。
(ステップS22)
制御部22は、PC端末30等を介したユーザーからの指示により、分析結果の生成、出力の要求があれば(YES)、処理をステップS23に進め、要求がなければ(NO)、処理をステップS24に進める。
(ステップS23)
出力制御部224は、ステップS20で得られた判定結果のデータを分析し、加工し、作業分析情報を生成する。そして生成した作業分析情報を、予め設定された送信先のPC端末30に送信する。この作業分析情報の出力例については、後述する(後述の図22、図23)。
(ステップS24)
計測終了でなければ(NO)、処理をステップS10に戻し、ステップS10以下の処理を繰り返す。計測終了であれば処理を終了する(エンド)。
(作業内容の判定処理)
次に、図7のサブルーチンフローチャートを参照し、上述の図5のステップS20で行う作業内容の判定(同定)処理について説明する。
(ステップS31)
制御部22は、作業計画データを取得する。これは、予めPC端末30を通じて、取得し、記憶部21に記憶されたものである。
図8A、図8Bは、ステップS31で取得した作業計画データを模式的に表示したものである。図8Aに示す作業計画データは、作業計画1であり、作業領域90で行われる、トンネル掘削に関する作業工程の項目、およびこれらの順番、および開始時刻、終了時刻から構成される。図8Bに示す作業計画データは、作業計画2であり、作業工程で行われる作業の項目、およびこれらの順番、から構成される。なお図8Bは、作業工程が「ズリ出し」の場合の作業計画を示している。
(ステップS32)
制御部は、ステップS31で取得した作業計画を用いて、工程判定を行う。図9は、このステップ32の処理を示すサブルーチンフローチャートである。図9の処理内容は、作業判定基準に相当する。
(ステップS401)
判定部223は、検知物リストのある時刻のデータに吹付機の作業機械80があれば(YES)、処理をステップS406に進め、なければ(NO)、処理をステップS402に進める。
(ステップS402)
判定部223は、同じ時刻における検知物リストにホイールローダーの作業機械80があれば(YES)、処理をステップS405に進め、なければ(NO)、処理をステップS403に進める。
(ステップS403)
判定部223は、同じ時刻における検知物リストにアーティタンプの作業機械80があれば(YES)、処理をステップS405に進め、なければ(NO)、処理をステップS404に進める。
(ステップS404〜S406)
判定部223は、ステップS404〜S406でそれぞれ、工程を「掘削」、「ズリ出し」、「吹付け」と判定し、図9の処理を終了し、処理を図7に戻し、ステップS33を処理する(リターン)。
(ステップS33)
図7のステップS33においては、判定部223は記憶部21から、ステップS32で判定した工程に対応する作業判定基準を選択して、取得する。図10は、「ズリ出し」(ステップS405)と判定された場合に用いる作業判定基準の例である。作業判定基準には、工程名、作業機械、分類する作業(作業項目)、位置情報、速度、特徴量が含まれる。また、位置情報には、絶対的、相対的の2項目が含まれる。絶対的な位置情報は、図2に示すように待機エリア、積み込みエリア、切羽エリアと、予めユーザーにより設定された領域である。相対的な位置情報は、複数の物体(作業機械)間の距離である。この距離は、2つの物体の中心座標ではなく、物体の最近接距離、すなわち物体の間隔(隙間)を用いてもよい。なお、備考欄は、実施形態の理解を容易にするための記載であり、作業判定基準には含まれない。
(ステップS34)
判定部223は、検知物リスト、およびステップS33で取得した作業判定基準を用いて、各作業工程で行われた作業内容を判定(同定、または分類ともいう)する。この作業の判定処理については後述する。図11は、作業判定結果の例である。各作業工程(ズリ出し)について、作業履歴として、作業機械毎に、作業(作業項目)、各作業のタイミング、各作業の順番に関する履歴データが記録されている。図11(a)は、図8Bに対応する図であり、作業計画に応じて、実際に行われたタイミングが記載されている。図11(b)は、より詳細に記録したものであり、図11(a)の作業w21に対して、図11(b)では作業w21bではより詳細に、ホイールローダーの作業を記録している。特に速度情報を用いて、積込み、待機など、作業機械の停止情報を把握することで、生産性に寄与しない無駄な停止時間を把握できる。このような作業履歴を活用することで、作業の改善を図ることができる。
(ステップS35)
制御部22は、未処理の物体があれば(NO)、処理をステップS33に戻し、次の物体に対しての処理を行う。一方で、未処理の物体がなければ(YES)、サブルーチン処理を終了し、図5にステップS20以降の処理に戻る(リターン)。
(作業同定の各処理)
次に、図12〜図19を参照し、ステップS34の作業判定の各処理について説明する。以下では、第1〜第3の例まで、ステップS34の3種類の例について説明する。図12は、「ズリ出し」工程におけるアーティタンプを対象機とした、ステップS34のサブルーチンチャートであり、図13は、同じ工程のホイールローダーを対象機とした、ステップS34のサブルーチンチャートである。これらの処理により、図11(a)、図11(b)の作業w10、w20、w30、w21、w21b、w31の判定が行われる。
(ステップS34の第1の例)
(作業工程「ズリだし」、作業機械「アーティタンプ」)
(ステップS501)
図12のステップS501では、判定部223は、検知物リストのある時刻のデータにおいて、対象の作業機械80(アーティタンプ)が移動中であるか否かを判定する。移動中であれば(YES)、処理をステップS502に進め、移動中でなければ(NO)、処理をステップS503に進める。移動中であるか否かは、上述と同様に、所定の速度閾値との比較により判定する。
(ステップS502)
判定部223は、この物体の少し前の時刻における、前作業の判定結果が「積み込み」または「搬出」であれば(YES)、処理をステップS507に進め、これら以外であれば(NO)、処理をステップS506に進める。
(ステップS503)
判定部223は、検知物リストを参照し、同じ時刻における同じ作業領域90に存在する他の作業機械80(ホイールローダー)との間隔(隙間)が所定値未満であるかを判定する。例えば閾値(所定値)としては1mである。間隔が所定値未満であれば(YES)、処理をステップS505に進め、所定値以上であれば(NO)、処理をステップS504に進める。
(ステップS504〜S507)
判定部223は、ステップS504〜S507でそれぞれ、作業を「待機」、「積み込み」、「移動」、「搬出」と判定し、図12の処理を終了し、処理を図7に戻す(リターン)。
図14は、ステップS506の作業内容「移動」の状況を示す図である。この「移動」は図11の作業w10に対応する。図14(a)、図14(b)は、図2、図4にそれぞれ対応する図である。図14(a)の状態の作業領域90を測定することで得られた測距点群データから生成した上面視の表示画像である。図14(c)は、速度データを示す図である。図14(c)の移動の区間(区間1、区間2)が、図14(a)、図14(b)に対応する。図14のような状況では、アーティタンプの作業内容「移動」と同定される。
(ステップS34の第2の例)
(作業工程「ズリ出し」、作業機械「ホイールローダー」)
(ステップS601)
図13のステップS601では、判定部223は、検知物リストのある時刻のデータにおいて、対象機、すなわち対象の作業機械80(ホイールローダー)が移動中であるか否かを判定する。移動中であれば(YES)、処理をステップS602に進め、移動中でなければ(NO)、処理をステップS503に進める。移動中であるか否かは、上述と同様に、所定の速度閾値との比較により判定する。
(ステップS602)
判定部223は、図5のステップS17で抽出した対象機の物体の特徴量を用いて、アーム位置が下がっているか否かを判定する。アームが下位置であれば(YES)、処理をステップS607に進め、下がっていなければ(NO)、処理をステップS606に進める。
(ステップS603)
判定部223は、検知物リストを参照し、同じ時刻における同じ作業領域90に存在する他の作業機械80(アーティタンプ)との間隔(隙間)が所定値未満であるかを判定する。間隔が所定値未満であれば(YES)、処理をステップS605に進め、所定値以上であれば、処理をステップS604に進める。
(ステップS604〜S607)
判定部223は、ステップS604〜S607でそれぞれ、作業を「待機」、「積み込み」、「移動1」、「移動2」と判定し、図13の処理を終了し、処理を図7に戻す(リターン)。ここで、移動1は、ズリ(土砂)をアームの先のバケットに積み込んだ状態での移動であり、移動2は、移動1以外(空身)の移動である。
図15は、ステップS505、S605の作業内容「積み込み」の状況を示す図である。この「積み込み」は、図11の作業w20、w21bに対応する。図15(a)、(b)、(d)はそれぞれ図14(a)、(b)、(c)に対応する。なお、図15(d)は、アーティタンプの速度データであり、ホイールローダーの速度データは図示を省略している(図16も同様)。図14(c)は、図14(b)と同じ測距点群データから生成した、ライダー110の位置から見た正面視の表示画像である。アーティタンプ(作業機械801)とホイールローダー(作業機械804)との間隔が所定距離未満であり、両作業機械80が停止していることから「積み込み」と判定する。
図16は、ステップS507、S607の作業内容「搬出」、「移動2」の状況を示す図である。図16(a)〜(d)はそれぞれ図5(a)〜(d)に対応する。アーティタンプ(作業機械801)は、前作業が積み込みであり、現作業が移動中であることから作業「搬出」であると判定できる。また、ホイールローダー(作業機械804)は移動中であること、および特徴量(「アーム下位置」)から作業「移動2」と判定する。
(ステップS34の第3の例)
(作業工程「吹付け」、対象物「作業者」)
次に、図17から図19を参照し、「吹付け」工程におけるステップS34の作業同定の各処理について説明する。図17は、「吹付け」工程における作業者85を対象とした、ステップS34のサブルーチンチャートである。図18は、「吹付け」工程で用いる作業判定基準である。図19は、吹付け工程における作業領域90の一例を示す模式図である。図19には、作業機械80として、吹付機(作業機械805)、ミキサー車(作業機械806)、ブレーカー(作業機械807)、および複数の作業者85(85a〜85e)が、作業領域9内に存在する。
(ステップS701)
ここでは、判定部223は、検知物リストのある時刻のデータにおいて、対象物である作業者85が移動中であるか否かを判定する。移動中であれば(YES)、処理をステップS704に進め、移動中でなければ(NO)、処理をステップS702に進める。移動中であるか否かは、上述と同様に、所定速度以上か、所定速度未満であるか否かにより判定する。ここでの閾値としては作業機械と同じ1km/hourを適用できるが、作業機械とは異なる閾値を適用してもよい。
(ステップS702)
判定部223は、吹付機805と、作業者85との間隔が所定値未満か否かを判定する。例えば、閾値としては、作業機械と同じ1mを適用できるが、異なる閾値を適用してもよい。間隔が所定値未満であれば(YES)、処理をステップS707に進め、所定値以上であれば(NO)、処理をステップS703に進める。
(ステップS703)
判定部223は、ミキサー車806と、作業者85との間隔が所定値未満か否かを判定する。間隔が所定値未満であれば(YES)、処理をステップS706に進め、所定値以上であれば(NO)、処理をステップS705に進める。
(ステップS704)
判定部223は、作業者85の特徴量により、作業者85が部材を運搬しているか否かを判定する。部材を運搬してれば(YES)、処理をステップS709に進め、運搬していなければ(NO)、処理をステップS708に進める。この運搬には、ハンドキャリーや、手押し台車による運搬が含まれる。
(ステップS705〜S709)
判定部223は、ステップS704〜S709でそれぞれ、作業を「待機」、「ミキサー車作業」、「吹付機作業」、「移動」、「部材運搬」と判定し、図17の処理を終了し、処理を図7に戻す(リターン)。
図19(a)、図19(b)は、図2、図4にそれぞれ対応する図である。図19(b)は、図19(a)の状態の作業領域90を測定することで得られた測距点群データから生成した上面視の表示画像である。作業機械805〜807、および作業者85a〜85eは、それぞれ物体ob11〜ob13、およびob21〜ob25に対応する。図19においては、作業者85a、85cは「待機」、作業者85eは「ミキサー車作業」、作業者85dは「吹付機作業」、作業者85eは「部材運搬」の作業とそれぞれ判定される。
このように、本実施形態に係る作業分析システム1は、測定部10が作業領域90を測定して得られた測定データから作業機械80、および人(作業者85)を含む物体を認識し、認識した物体の位置情報、および物体の形状に関する特徴量を判定する物体認識部222と、物体認識部222が認識した、物体の位置、他の物体との位置関係、および特徴量から、作業領域内90で行われた作業を判定する判定部223と、を備える。これにより、作業領域90における作業履歴の記録が可能となる。また、測定部10としてライダー110を用いることにより、工事現場等の日々、作業機械や周囲環境が変化したり、作業領域が移動したりするような作業領域90であっても、安定して、作業履歴を記録することができる。特に、作業機械毎、作業者毎に、各時間に行われた作業を記録し、管理できるので、作業の効率化を図るための指標を得ることができる。また、速度情報を用いて、積込み、待機など、作業機械の停止情報を把握することで、生産性に寄与しない無駄な停止時間を把握できる。このような作業履歴を活用することで、作業の改善を図るための指標を得ることができる。
(第2の実施形態)
図20は、第2の実施形態に係る作業分析システム1bの主要構成を示すブロック図である。上述の第1の実施形態に係る作業分析システム1では、測定部10は、ライダー11を用いた。そして、作業分析装置20は、ライダー11から得られた測距点群データを用いて、物体の認識、および作業分析処理を行った。以下に説明する第2の実施形態では、ライダー11に換えて、ステレオカメラ12を用い、この測定データ(映像データ)を画像解析することで測距点群データを生成する。
(ステレオカメラ12)
ステレオカメラ12は、作業領域90を撮影し、映像を取得する。ステレオカメラ12は、ステレオ視できるように、2台のカメラから構成される。2台のカメラは、各光軸が同じ方向に向き、平行で、互いに所定距離(基線長)だけ離れて配置される。作業分析装置20は、カメラ12に対して、同期信号を出力し、両カメラの撮影タイミングを合わせて、作業領域90の撮影を行わせる。得られた両カメラの映像データ(映像信号)は、取得部221により取得される。認識部222は、両カメラの同時撮影した一対の映像データに対して、コントラスト調整、および2値化処理を行うことで、両画像それぞれから、撮影画像内の物体の形状、輪郭に対応する特徴点を抽出し、一致する特徴点の画像内での位置関係、および基線長のデータにより、特徴点それぞれまでの距離を算出する。これにより、映像データ内の各画素に対する距離値を得ることができる。このような処理により、作業分析装置20の制御部22は、作業領域90内の撮影データ(測定データ)から測距点群データを生成する。また、認識部222は、得られた映像を画像解析することで、特徴量を認識する。例えば、認識部222は、画像解析により、アームが上がっている状態か、下がっている状態かを認識する。
このような第2の実施形態に係る作業分析システム1bにおいて、第1の実施形態と同様の図5等の作業分析処理を行う。これにより、第1の実施形態と同様の効果を得ることができる。
(第3の実施形態)
図21は、第3の実施形態に係る作業分析システム1cの主要構成を示すブロック図である。以下に説明する第3の実施形態では、ライダー11に換えて、カメラ13を用い、この測定データ(映像データ)を画像解析することで特徴量を認識する。また、作業領域90内で作業する作業機械80、および作業者85は、それぞれ1つ以上の位置情報デバイス401を保有し、この位置情報デバイス401の位置情報は、これと無線通信する位置情報検知部40により検知できる。さらに、作業機械80は、加速度センサー50が取り付けられている。
(カメラ13)
カメラ13は、作業領域90を撮影し、映像を取得する。カメラ13は、通常カメラ(単眼カメラ)であればよいが、第2の実施形態と同様にステレオカメラの構成としてもよい。認識部222は、カメラ13から得られた映像を解析することで特徴量を認識する。特徴量の認識は、予め記憶部21に記憶されている特徴量のパターンと、得られた映像とのパターンマッチングにより行うようにしてもよい。また、学習済みモデルを用いて認識するようにしてもよい。学習済みモデルは、例えばカメラ13により得られた映像と、その映像内にある物体の特徴量について、正解ラベル(「アームが上がっている」、「アームが下がっている」、「荷物を運搬している」等)を付与した多数の学習サンプルデータを用いることで教師あり学習により機械学習できる。
(位置情報検知部40、位置情報デバイス401)
作業分析システム1bの認識部222は、位置情報検知40により検知した位置情報を、取得部221を介して取得する。この作業機械80、および作業者85が保有する位置情報デバイス401としては、ICタグ、またはスマートフォン等の可搬型のデバイスを適用できる。
この位置情報検知部40、および位置情報デバイス401としては、種種の公知の技術を適用できる。例えば、例えばBLE(Bluetooth(登録商標) Low Energy)ビーコン(Beacon)、Wifi測位装置、UWB(Ultra Wide Band)測位装置、超音波測位装置、GPS(Global Positioning System)、等の技術を適用できる。
BLEビーコンの技術を適用した場合には、作業領域90のほとんどの範囲が検出エリアとなるように複数(例えば3台)の位置情報検知部40、作業領域90の周囲に配置する。そして、発信器としての位置情報デバイス401から所定間隔で、位置情報デバイス401の固有IDを含む、ビーコン信号を発信する。そして、受信器としての位置情報検知部40は、位置情報デバイス401からのビーコン信号の強度から距離を推定する。そして複数の固定配置された位置情報検知部40の配置位置情報、およびこのそれぞれの位置情報検知部40までの距離の情報から、自装置(位置情報デバイス401)の位置を特定する。位置情報デバイス401は、の位置情報、および固有IDを位置情報検知部40に送信する。
また、Wifi測位の技術であれば、作業機械80等が保有する位置情報デバイス401が受信器として機能し、アクセスポイントである複数の位置情報検知部40が送信器として機能する。位置情報検知部40から発信された帯域2.4GHz(または5GHz)の電波のビーコン信号を、位置情報デバイス401が受信し、この信号強度に基づいて、各アクセスポイントまでの距離を推定することで、位置情報デバイス401自体が位置情報を検出するようにしてもよい。
位置情報検知部40が検知した座標系(X’Y’、またはX’Y’Z’)と、作業分析システム1bの座標系(XYZ)への変換(統合)は、位置情報デバイスが持つローカルの座標系を予め記憶部21に記憶しておき、所定の変換式で変換することで、座標系の変換、または対応付けを行う。
また、本体部と稼働部で構成される特定の作業機械80に対しては、本体部と、1つ以上の稼働部それぞれに位置情報デバイス401を取り付けるようにしてもよい。このようにすることで、作業分析システム1bは、作業機械80の特徴量を認識できる。例えば、作業機械80がホイールローダーであれば、バケットに近いアームの先端部分と、本体部にそれぞれ位置情報デバイス401を取り付けることで、アームが上がっているか、下がっているかを判定できる。
(加速度センサー50)
作業機械80は、加速度センサー50、および無線通信部(図示せず)を有する。そして、分析システム1は、通信部23を介して、作業機械80から加速度センサー50の出力データを取得する。物体認識部222は、この加速度センサー50の出力データにより、作業機械80の移動状態、すなわち移動、停止の判定を行える。
このような第3の実施形態に係る作業分析システム1cにおいても、第1、第2の実施形態と同様に図5等の作業分析処理を行うことにより、第1の実施形態と同様の効果を得ることができる。また、位置情報検知部40を用いることで、取得した識別IDにより作業機械80の識別をより正確に、個別に行える。また、加速度センサー50を用いることで、作業機械80の移動、停止の判定を精度よく行える。
(作業分析情報の出力例)
出力生成部224は、判定部223により判定結果を用いて、ガントチャート、物体毎の作業割合、および、物体毎の作業領域内の動線もしくはヒートマップの少なくとも何れかに関する作業分析情報を生成するようにしてもよい。
図22は、ガントチャートの出力例であり、作業機械、作業者毎の作業時間を示している。また、図23は動線の出力例であり、図23(a)は、所定期間における、作業機械毎の動線の履歴を示している。また図23(b)は、図23(a)に対応する作業領域を示す模式図である。このような出力とすることで、管理者は作業履歴、作業状況を、より容易に把握できるようになる。
以上に説明した作業分析システム1の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な作業分析システム1が備える構成を排除するものではない。
(変形例)
例えば、第2の実施形態で適用した、位置情報デバイス401、および位置情報検知部40、ならびに加速度センサー50のいずれか、または両方の構成を第1の実施形態に適用してもよい。また、さらに、第2の実施形態におけるカメラ12を、第1の実施形態に併用してもよい。このようにすることにより、より精度よく、物体の認識、および物体の特徴量の認識を行えるので、より精度よく作業の判定を行える。
上述した実施形態に係る作業分析システム1における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、装置の一機能としてその装置のソフトウエアに組み込まれてもよい。
1、1b、1c 作業分析システム
10 測定部
11 ライダー
12 ステレオカメラ
13 カメラ
20 作業分析装置
21 記憶部
22 制御部
221 取得部
222 認識部
223 判定部
224 出力生成部
23 通信部
30 PC端末
40 位置情報検知部
401 位置情報デバイス
50 加速度センサー
90 作業領域
80 作業機械
85 作業者

Claims (18)

  1. 作業領域内を測定し、時系列の測定データを取得する測定部と、
    取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
    前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
    を備える作業分析システム。
  2. 記憶部に前記作業領域内で行われる作業計画であって1つ以上の前記作業を含む作業計画、および前記作業について実行されたか否かを判定するための作業判定基準が記憶され、前記判定部は、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、請求項1に記載の作業分析システム。
  3. 記憶部に前記作業領域内で行われる作業計画であって1つ以上の前記作業を含む作業計画が記憶され、
    前記判定部は、前記作業計画、および作業判定基準に関する学習済みモデルを用いて、前記作業の判定を行い、
    前記学習済みモデルは、入力を、前記物体認識部が認識した前記物体の位置、他の物体との位置関係、および前記特徴量の情報、出力を前記作業の分類の正解ラベルをセットとして教師あり学習したものである、請求項1に記載の作業分析システム。
  4. 前記測定部は、ライダーを含み、前記測定データとして、前記作業領域内を前記ライダーで測距して得られた測距点群データを取得する、請求項1から請求項3の何れかに記載の作業分析システム。
  5. 前記物体認識部は、前記測距点群データを用いて、前記物体を認識し、認識した前記物体の位置情報を判定する、
    請求項4に記載の作業分析システム。
  6. 前記物体認識部は、前記測距点群データを用いて、前記特徴量の認識を行う、
    請求項4、または請求項5に記載の作業分析システム。
  7. 前記測定部は、カメラを含み、前記測定データとして、前記作業領域内を撮影して得られた映像データを取得する、請求項1から請求項4の何れかに記載の作業分析システム。
  8. 前記物体認識部は、前記映像データを画像解析することで、前記物体の認識し、認識した前記物体の位置情報の判定を行う、請求項7に記載の作業分析システム。
  9. 前記物体認識部は、前記映像データを画像解析することで、前記特徴量の認識を行う、
    請求項7、または請求項8に記載の作業分析システム。
  10. さらに、前記物体が保有する位置情報デバイスの位置情報を取得する取得部を備え、
    前記物体認識部は、前記位置情報デバイスから取得した位置情報により、前記物体の認識、および前記物体の位置情報の判定を行う、請求項1から請求項4、および請求項7の何れかに記載の作業分析システム。
  11. 前記作業機械は、本体部と、該本体部に取り付けられ前記本体部に対する相対位置が変化する1つ以上の稼働部を有し、
    前記取得部が、前記本体部、および前記稼働部にそれぞれ取り付けられた前記位置情報デバイスから取得した位置情報により、
    前記物体認識部は、前記作業機械の前記特徴量を認識し、
    前記判定部は、前記作業の判定を、認識した前記特徴量を用いて行う、請求項10に記載の作業分析システム。
  12. 前記判定部は、時系列の前記物体の位置の変化から検出した、前記物体の移動速度を用いて、前記作業を判定する、請求項1から請求項11の何れかに記載の作業分析システム。
  13. 前記判定部は、前記物体の前記移動速度から判断した、前記物体の移動、および停止の状態を用いて、前記作業を判定する、請求項12に記載の作業分析システム。
  14. 前記作業機械に取り付けられた加速度センサーからの出力データを取得する取得部を備え、
    前記判定部は、前記加速度センサーからの出力データから判断した、前記作業機械の移動、および停止の状態を用いて前記作業を判定する、請求項12に記載の作業分析システム。
  15. 前記判定部による判定結果を用いて、ガントチャート、物体毎の作業割合、および、物体毎の前記作業領域内の動線もしくはヒートマップの少なくとも何れかに関する作業分析情報を生成する出力生成部を、さらに備える、請求項1から請求項14の何れかに記載の作業分析システム。
  16. 作業領域内を測定する測定部から、時系列の測定データを取得する取得部と、
    取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
    前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
    を備える作業分析装置。
  17. 作業領域内を測定する測定部を備える、作業分析システムを制御するコンピューターで実行される作業分析プログラムであって、
    前記測定部により作業領域内を測定し、時系列の測定データを取得するステップ(a)と、
    取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定するステップ(b)と、
    前記ステップ(b)で認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定するステップ(c)と、
    を含む処理を前記コンピューターに実行させるための作業分析プログラム。
  18. 前記処理は、前記作業領域内で行われる1つ以上の前記作業を含む作業計画、および前記作業について実行されたか否かを判定するための作業判定基準を取得するステップ(d)を、さらに含み、
    前記ステップ(c)では、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、請求項17に記載の作業分析プログラム。
JP2019098114A 2019-05-24 2019-05-24 作業分析システム、作業分析装置、および作業分析プログラム Active JP7277256B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019098114A JP7277256B2 (ja) 2019-05-24 2019-05-24 作業分析システム、作業分析装置、および作業分析プログラム
EP20813794.3A EP3979156A4 (en) 2019-05-24 2020-04-02 Work analysis system, work analysis device, and work analysis program
PCT/JP2020/015195 WO2020241043A1 (ja) 2019-05-24 2020-04-02 作業分析システム、作業分析装置、および作業分析プログラム
US17/613,644 US20220237533A1 (en) 2019-05-24 2020-04-02 Work analyzing system, work analyzing apparatus, and work analyzing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019098114A JP7277256B2 (ja) 2019-05-24 2019-05-24 作業分析システム、作業分析装置、および作業分析プログラム

Publications (2)

Publication Number Publication Date
JP2020194243A true JP2020194243A (ja) 2020-12-03
JP7277256B2 JP7277256B2 (ja) 2023-05-18

Family

ID=73547519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019098114A Active JP7277256B2 (ja) 2019-05-24 2019-05-24 作業分析システム、作業分析装置、および作業分析プログラム

Country Status (4)

Country Link
US (1) US20220237533A1 (ja)
EP (1) EP3979156A4 (ja)
JP (1) JP7277256B2 (ja)
WO (1) WO2020241043A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276285A1 (ja) * 2021-06-29 2023-01-05 コベルコ建機株式会社 侵入検出システム
JP7354182B2 (ja) 2021-05-31 2023-10-02 株式会社ブロードリーフ モバイル作業分析装置及び作業分析方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021076888A (ja) * 2019-11-05 2021-05-20 株式会社日立製作所 作業認識装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008063775A (ja) * 2006-09-06 2008-03-21 Shin Caterpillar Mitsubishi Ltd 建設機械の作業機姿勢特定装置および作業機姿勢特定方法
JP2013044317A (ja) * 2011-08-26 2013-03-04 Kajima Corp 重機のアイドリング判定方法、及び、アイドリング判定システム
JP2016201074A (ja) * 2015-04-14 2016-12-01 株式会社コンピュータシステム研究所 工事管理支援装置、工事管理支援プログラムおよび記憶媒体
JP2017126129A (ja) * 2016-01-12 2017-07-20 株式会社A−スタイル 現場作業員管理システム
WO2017130446A1 (ja) * 2016-01-29 2017-08-03 日揮株式会社 プロジェクト管理装置、プロジェクト管理システム、プロジェクト管理方法およびプログラム
JP2017229071A (ja) * 2017-06-27 2017-12-28 パナソニックIpマネジメント株式会社 ドアホンシステムおよび通信方法
WO2018061717A1 (ja) * 2016-09-30 2018-04-05 日立建機株式会社 作業車両
US20180165502A1 (en) * 2016-12-13 2018-06-14 Caterpillar Inc. Vehicle Classification and Vehicle Pose Estimation
US20180323816A1 (en) * 2017-05-02 2018-11-08 Deere & Company Smart attachment for a work vehicle
WO2019012993A1 (ja) * 2017-07-14 2019-01-17 株式会社小松製作所 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム
WO2019093152A1 (ja) * 2017-11-10 2019-05-16 株式会社小松製作所 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9222771B2 (en) * 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
JP6496182B2 (ja) * 2015-04-28 2019-04-03 株式会社小松製作所 施工計画システム
JP2015166597A (ja) * 2015-07-02 2015-09-24 鹿島建設株式会社 重機の動作状況の把握方法
JP6979015B2 (ja) * 2016-03-30 2021-12-08 株式会社小松製作所 作業機械を用いて施工する施工現場のシミュレーションシステム及びシミュレーション方法
US10234856B2 (en) * 2016-05-12 2019-03-19 Caterpillar Inc. System and method for controlling a machine
US10640952B2 (en) * 2016-12-09 2020-05-05 Caterpillar Inc. System and method for modifying a material movement plan
WO2018193880A1 (ja) * 2017-04-21 2018-10-25 日立Geニュークリア・エナジー株式会社 プラント設備機器認識システムおよびプラント設備機器認識方法
JP6824838B2 (ja) 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
JP7114885B2 (ja) * 2017-11-29 2022-08-09 沖電気工業株式会社 作業現場監視装置およびプログラム
JP2019098114A (ja) 2017-12-08 2019-06-24 株式会社高尾 弾球遊技機
US11055841B2 (en) * 2018-02-18 2021-07-06 Constru Ltd System and method for determining the quality of concrete from construction site images
US20190188811A1 (en) * 2018-02-17 2019-06-20 Constru Ltd System and method for generating financial assessments based on construction site images
US11118453B2 (en) * 2018-05-16 2021-09-14 Caterpillar Inc. System and method of layering material
US10975546B2 (en) * 2018-05-21 2021-04-13 Caterpillar Inc. System and method of layering material
US11332910B2 (en) * 2018-07-26 2022-05-17 Built Robotics, Inc. Excavating earth from a dig site using an excavation vehicle
US20200117201A1 (en) * 2018-10-15 2020-04-16 Caterpillar Paving Products Inc. Methods for defining work area of autonomous construction vehicle
EP3660231B1 (en) * 2018-11-08 2022-02-23 Intsite Ltd System and method for autonomous operation of heavy machinery
JP2020084459A (ja) * 2018-11-19 2020-06-04 株式会社小松製作所 作業機を含む作業機械を自動制御するためのシステム及び方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008063775A (ja) * 2006-09-06 2008-03-21 Shin Caterpillar Mitsubishi Ltd 建設機械の作業機姿勢特定装置および作業機姿勢特定方法
JP2013044317A (ja) * 2011-08-26 2013-03-04 Kajima Corp 重機のアイドリング判定方法、及び、アイドリング判定システム
JP2016201074A (ja) * 2015-04-14 2016-12-01 株式会社コンピュータシステム研究所 工事管理支援装置、工事管理支援プログラムおよび記憶媒体
JP2017126129A (ja) * 2016-01-12 2017-07-20 株式会社A−スタイル 現場作業員管理システム
WO2017130446A1 (ja) * 2016-01-29 2017-08-03 日揮株式会社 プロジェクト管理装置、プロジェクト管理システム、プロジェクト管理方法およびプログラム
WO2018061717A1 (ja) * 2016-09-30 2018-04-05 日立建機株式会社 作業車両
US20180165502A1 (en) * 2016-12-13 2018-06-14 Caterpillar Inc. Vehicle Classification and Vehicle Pose Estimation
US20180323816A1 (en) * 2017-05-02 2018-11-08 Deere & Company Smart attachment for a work vehicle
JP2017229071A (ja) * 2017-06-27 2017-12-28 パナソニックIpマネジメント株式会社 ドアホンシステムおよび通信方法
WO2019012993A1 (ja) * 2017-07-14 2019-01-17 株式会社小松製作所 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム
WO2019093152A1 (ja) * 2017-11-10 2019-05-16 株式会社小松製作所 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡辺 孝弘 他: "画像センサーとLiDARによるセンシング融合技術を用いた現場監視ソリューション", OKIテクニカルレビュー, vol. 第230号, Vol.84, No.2, JPN6020020229, 20 December 2017 (2017-12-20), pages 14 - 17, ISSN: 0004994928 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354182B2 (ja) 2021-05-31 2023-10-02 株式会社ブロードリーフ モバイル作業分析装置及び作業分析方法
JP7481559B2 (ja) 2021-05-31 2024-05-10 株式会社ブロードリーフ 作業分析装置、作業分析方法及び作業分析プログラム
WO2023276285A1 (ja) * 2021-06-29 2023-01-05 コベルコ建機株式会社 侵入検出システム

Also Published As

Publication number Publication date
JP7277256B2 (ja) 2023-05-18
US20220237533A1 (en) 2022-07-28
EP3979156A1 (en) 2022-04-06
EP3979156A4 (en) 2022-06-29
WO2020241043A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
US20230288209A1 (en) Aligning measured signal data with slam localization data and uses thereof
WO2020241043A1 (ja) 作業分析システム、作業分析装置、および作業分析プログラム
US20210064024A1 (en) Scanning environments and tracking unmanned aerial vehicles
US20180348346A1 (en) Hybrid-View Lidar-Based Object Detection
US20190310651A1 (en) Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
WO2019018315A1 (en) ALIGNMENT OF MEASURED SIGNAL DATA WITH SLAM LOCATION DATA AND ASSOCIATED USES
WO2021253430A1 (zh) 绝对位姿确定方法、电子设备及可移动平台
WO2021072710A1 (zh) 移动物体的点云融合方法、系统及计算机存储介质
CN110488811B (zh) 一种基于社交网络模型的机器人对行人轨迹预测的方法
US10598791B2 (en) Object detection based on Lidar intensity
RU2656711C2 (ru) Способ и система обнаружения и сопровождения движущихся объектов на основе данных трехмерного датчика
CN203288083U (zh) 一种激光三维扫描车辆装置
US11790546B2 (en) Point cloud annotation for a warehouse environment
CN109856643A (zh) 基于3d激光的可移动式无感全景感知方法
KR20210116415A (ko) 라이다 누화를 완화시키기 위한 라이다 시스템 설계
KR20230026130A (ko) 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법
WO2018180454A1 (ja) 移動体
KR102252295B1 (ko) 실내 토폴로지맵 생성 방법 및 이를 위한 자율주행 로봇
JPWO2020054110A1 (ja) 物体検出システム、および物体検出方法
US20230417912A1 (en) Methods and systems for statistical vehicle tracking using lidar sensor systems
Catalano et al. Towards robust uav tracking in gnss-denied environments: a multi-lidar multi-uav dataset
KR102618680B1 (ko) 영상과 라이다를 이용한 실시간 3차원 물체 인식 및 추적하는 시스템
Teizer et al. Experiments in real-time spatial data acquisition for obstacle detection
TW202349927A (zh) 移動物體檢測方法、裝置、電子設備及存儲介質

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150