JP2020194243A - 作業分析システム、作業分析装置、および作業分析プログラム - Google Patents
作業分析システム、作業分析装置、および作業分析プログラム Download PDFInfo
- Publication number
- JP2020194243A JP2020194243A JP2019098114A JP2019098114A JP2020194243A JP 2020194243 A JP2020194243 A JP 2020194243A JP 2019098114 A JP2019098114 A JP 2019098114A JP 2019098114 A JP2019098114 A JP 2019098114A JP 2020194243 A JP2020194243 A JP 2020194243A
- Authority
- JP
- Japan
- Prior art keywords
- work
- unit
- analysis system
- position information
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 105
- 238000005259 measurement Methods 0.000 claims abstract description 62
- 230000008859 change Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 97
- 230000008569 process Effects 0.000 claims description 92
- 238000003860 storage Methods 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 claims description 11
- 238000010191 image analysis Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 description 41
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 239000004417 polycarbonate Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 239000004065 semiconductor Substances 0.000 description 8
- 238000005507 spraying Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002354 daily effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000009412 basement excavation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0633—Workflow analysis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
Description
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
を備える作業分析システム。
前記判定部は、前記作業計画、および作業判定基準に関する学習済みモデルを用いて、前記作業の判定を行い、
前記学習済みモデルは、入力を、前記物体認識部が認識した前記物体の位置、他の物体との位置関係、および前記特徴量の情報、出力を前記作業の分類の正解ラベルをセットとして教師あり学習したものである、上記(1)に記載の作業分析システム。
上記(4)に記載の作業分析システム。
上記(4)、または上記(5)に記載の作業分析システム。
上記(7)、または上記(8)に記載の作業分析システム。
前記物体認識部は、前記位置情報デバイスから取得した位置情報により、前記物体の認識、および前記物体の位置情報の判定を行う、上記(1)から上記(4)、および上記(7)の何れかに記載の作業分析システム。
前記取得部が、前記本体部、および前記稼働部にそれぞれ取り付けられた前記位置情報デバイスから取得した位置情報により、
前記物体認識部は、前記作業機械の前記特徴量を認識し、
前記判定部は、前記作業の判定を、認識した前記特徴量を用いて行う、上記(10)に記載の作業分析システム。
前記判定部は、前記加速度センサーからの出力データから判断した、前記作業機械の移動、および停止の状態を用いて前記作業を判定する、上記(12)に記載の作業分析システム。
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
を備える作業分析装置。
前記測定部により作業領域内を測定し、時系列の測定データを取得するステップ(a)と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定するステップ(b)と、
前記ステップ(b)で認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定するステップ(c)と、
を含む処理を前記コンピューターに実行させるための作業分析プログラム。
前記ステップ(c)では、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、上記(17)に記載の作業分析プログラム。
以下、図3を参照し、ライダー11の構成について説明する。図3は、ライダー11の概略構成を示す断面図である。ライダー11は、投受光ユニット111を有する。投受光ユニット111は、半導体レーザー51、コリメートレンズ52、ミラーユニット53、レンズ54、フォトダイオード55、およびモーター56、ならびにこれらの各構成部材を収容する筐体57を有する。筐体57内には、制御部22の取得部221が配置されている。投受光ユニット111は、レーザースポット光によりライダー11の測定空間内を走査することで得られた各画素の受光信号を出力する。取得部221は、この受光信号に基づいて、測距点群データを生成する。この測距点群データは距離画像、または距離マップとも称される。
図1を再び参照し、作業分析システム1について説明する。作業分析システム1は、例えば、コンピューターであり、CPU(Central Processing Unit)、メモリ(半導体メモリ、磁気記録媒体(ハードディスク等))、入出力部(ディスプレイ、キーボード、等)、等を備える。
記憶部21には、検知物リスト(検知物体リストともいう)、位置情報履歴データ、作業判定基準、作業計画、等が記憶される。
次に、制御部22の取得部221、物体認識部222、判定部223、および出力生成部224の各機能について説明する。
取得部221の機能については、上述したとおりである。取得部221は、測定時に、ライダー11の投受光ユニット111により、複数の照射方向に向けた送信波を、作業領域90の測定空間に渡って照射し、測定空間内の物体(対象物)からの送信波の反射波に応じた受信信号を取得する。そして、この受信信号の受信タイミング(送受信の時間間隔)に応じて複数の照射方向における、それぞれの距離情報を得る。そしてこれにより、測距点群データを生成する。
物体認識部222は、作業領域90内の物体を認識する。本実施形態では、例えば背景差分法を採用する。この背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)データを用いる。具体的には、測定の前準備(前処理)として、ユーザーの指示により、設置型機械以外の作業機械80や作業者85等の移動物体が存在しない状態で、ライダー11からレーザースポット光を走査する。これにより背景対象物(静止物)から得られた反射光に基づいて、背景画像を得る。実際の測定時においては、背景対象物の手前に行動解析の対象である物体として例えば作業機械80が作業領域90内に現れた場合、作業機械80からの反射光が新たに生じる。
判定部223は、物体認識部222が認識した物体の位置、他の物体との位置関係、および特徴量から、作業領域90内で行われた作業を判定(分類)する。ここで他の物体との位置関係(相対的な位置関係)とは、複数の物体の中心位置間の距離を用いてもよく、物体同士の輪郭間の距離、すなわち「隙間」を用いてもよい。この他の物体との位置関係の算出は、認識した物体を囲むバウンディングボックスの中心位置から算出してもよく、2つのバウンディングボックスを構成する頂点、辺(または面)との最近接距離から算出できる。このバウンディングボックスは、例えば物体を囲む最小の面積(体積)となる1つの直方体である。バウンディングボックスの頂点、辺(面)の位置は、それぞれのバウンディングボックスの座標(中心位置)、サイズ(幅、高さ、奥行き)、回転角θ(上面視における回転角度(物体の向き)により求められる。
出力生成部224は、判定部223の判定結果のデータを分析し、加工することで、作業分析情報を生成する。作業分析情報には、判定結果の分析結果、およびこの分析結果を可視化した表示用データが含まれる。分析により生成される表示用データには、ガントチャート、物体(作業機械、作業者)毎の作業割合(円グラフ)、および、物体毎の作業領域内の動線もしくはヒートマップが含まれる。なお、この作業分析情報の生成は、予め設定された項目について、自動的に生成し、所定の出力先に出力するようにしてもよく、PC端末30を通じたユーザーからの要求に応じて、都度生成し、出力するようにしてもよい。
次に、図5〜図19を参照し、作業分析システム、および作業分析装置により行われる作業分析処理について説明する。図5は、作業分析処理を示すメインのフローチャートである。
最初に、作業分析システム1の取得部221は、測定部10のライダー11を制御し、作業領域90内を測定し、測距点群データを取得する。
物体認識部222は、ステップS10で得られた測距点群データから、作業領域90内の物体を認識する。また、物体認識部22は、ここで認識した物体の種類情報を認識するようにしてもよい。例えば、物体が人であるか、あるいは作業機械であるか認識し、作業機械の場合には、さらにどの種類(ホイールローダー、アーティタンプ等)の作業機械80であるかを認識する。
制御部22は、ステップS11で認識した物体が、検知物リストに記録されている既知の物体であれば(YES)、処理をステップS13に進める。一方で、新たに認識された物体であれば(NO)、処理をステップS14に進める。
制御部22は、検知物リストを更新し、既存の物体IDの情報に位置情報、またはこの位置情報と特徴量を追記し、更新する。
制御部22は、新たに認識した物体に関しては、追跡に用いるため連続した任意の番号(物体ID)を新たに付与し、検知物リストに記録する。
制御部22は、認識した物体の移動軌跡を記録する。この記録は、位置情報履歴データとして記憶部21に保存される。
物体認識部222は、移動軌跡から物体の移動、または停止を判定する。具体的には、複数フレーム(1秒から数秒相当)に渡る位置の移動量から速度を算出し、所定速度以上の場合には移動と判定し、所定速度未満の場合には停止と判定する。判定に用いる所定速度としては、例えば1km/hourである。
物体認識部222は、物体の特徴量を認識する。特徴量としては、上述のように、稼働部がある作業機械の場合に、稼働部の状態が判別できるように、特徴量として作業機械80の輪郭形状、または全体のサイズを認識する。また、この特徴量として、上述のようにアームが上がった状態であるか否かの情報でもよい。
制御部22は、ステップS16、S17で認識した移動/停止の判定結果、および特徴量を検知物リストに記録し、データを更新する。
制御部22は、未処理の物体がなければ(YES)、処理をステップS20に進め、未処理の物体があれば(NO)、処理をステップS12に戻し、次の物体に対しての処理を行う。
判定部223は、このステップS20では、後述する図7のサブルーチンフローチャートにより、作業を判定(同定)、すなわち作業内容を判定する。
制御部22は、判定した作業を、検知リスト等に記録する。図6は、検知物リストの例である。同図に示すように検知物リストには、上述の処理で認識された物体の検知ID、各時刻における検知座標、サイズ情報、移動/停止の判定結果、特徴(特徴量)、および判定した作業内容が含まれる。この判定した作業内容は、ステップS20で判定(同定)されたものである。なお、同図では省略しているが検知ID毎に物体の種類の情報が含まれる(人、作業機械(および種類)、その他の物体)。
制御部22は、PC端末30等を介したユーザーからの指示により、分析結果の生成、出力の要求があれば(YES)、処理をステップS23に進め、要求がなければ(NO)、処理をステップS24に進める。
出力制御部224は、ステップS20で得られた判定結果のデータを分析し、加工し、作業分析情報を生成する。そして生成した作業分析情報を、予め設定された送信先のPC端末30に送信する。この作業分析情報の出力例については、後述する(後述の図22、図23)。
計測終了でなければ(NO)、処理をステップS10に戻し、ステップS10以下の処理を繰り返す。計測終了であれば処理を終了する(エンド)。
次に、図7のサブルーチンフローチャートを参照し、上述の図5のステップS20で行う作業内容の判定(同定)処理について説明する。
制御部22は、作業計画データを取得する。これは、予めPC端末30を通じて、取得し、記憶部21に記憶されたものである。
制御部は、ステップS31で取得した作業計画を用いて、工程判定を行う。図9は、このステップ32の処理を示すサブルーチンフローチャートである。図9の処理内容は、作業判定基準に相当する。
判定部223は、検知物リストのある時刻のデータに吹付機の作業機械80があれば(YES)、処理をステップS406に進め、なければ(NO)、処理をステップS402に進める。
判定部223は、同じ時刻における検知物リストにホイールローダーの作業機械80があれば(YES)、処理をステップS405に進め、なければ(NO)、処理をステップS403に進める。
判定部223は、同じ時刻における検知物リストにアーティタンプの作業機械80があれば(YES)、処理をステップS405に進め、なければ(NO)、処理をステップS404に進める。
判定部223は、ステップS404〜S406でそれぞれ、工程を「掘削」、「ズリ出し」、「吹付け」と判定し、図9の処理を終了し、処理を図7に戻し、ステップS33を処理する(リターン)。
図7のステップS33においては、判定部223は記憶部21から、ステップS32で判定した工程に対応する作業判定基準を選択して、取得する。図10は、「ズリ出し」(ステップS405)と判定された場合に用いる作業判定基準の例である。作業判定基準には、工程名、作業機械、分類する作業(作業項目)、位置情報、速度、特徴量が含まれる。また、位置情報には、絶対的、相対的の2項目が含まれる。絶対的な位置情報は、図2に示すように待機エリア、積み込みエリア、切羽エリアと、予めユーザーにより設定された領域である。相対的な位置情報は、複数の物体(作業機械)間の距離である。この距離は、2つの物体の中心座標ではなく、物体の最近接距離、すなわち物体の間隔(隙間)を用いてもよい。なお、備考欄は、実施形態の理解を容易にするための記載であり、作業判定基準には含まれない。
判定部223は、検知物リスト、およびステップS33で取得した作業判定基準を用いて、各作業工程で行われた作業内容を判定(同定、または分類ともいう)する。この作業の判定処理については後述する。図11は、作業判定結果の例である。各作業工程(ズリ出し)について、作業履歴として、作業機械毎に、作業(作業項目)、各作業のタイミング、各作業の順番に関する履歴データが記録されている。図11(a)は、図8Bに対応する図であり、作業計画に応じて、実際に行われたタイミングが記載されている。図11(b)は、より詳細に記録したものであり、図11(a)の作業w21に対して、図11(b)では作業w21bではより詳細に、ホイールローダーの作業を記録している。特に速度情報を用いて、積込み、待機など、作業機械の停止情報を把握することで、生産性に寄与しない無駄な停止時間を把握できる。このような作業履歴を活用することで、作業の改善を図ることができる。
制御部22は、未処理の物体があれば(NO)、処理をステップS33に戻し、次の物体に対しての処理を行う。一方で、未処理の物体がなければ(YES)、サブルーチン処理を終了し、図5にステップS20以降の処理に戻る(リターン)。
次に、図12〜図19を参照し、ステップS34の作業判定の各処理について説明する。以下では、第1〜第3の例まで、ステップS34の3種類の例について説明する。図12は、「ズリ出し」工程におけるアーティタンプを対象機とした、ステップS34のサブルーチンチャートであり、図13は、同じ工程のホイールローダーを対象機とした、ステップS34のサブルーチンチャートである。これらの処理により、図11(a)、図11(b)の作業w10、w20、w30、w21、w21b、w31の判定が行われる。
(作業工程「ズリだし」、作業機械「アーティタンプ」)
(ステップS501)
図12のステップS501では、判定部223は、検知物リストのある時刻のデータにおいて、対象の作業機械80(アーティタンプ)が移動中であるか否かを判定する。移動中であれば(YES)、処理をステップS502に進め、移動中でなければ(NO)、処理をステップS503に進める。移動中であるか否かは、上述と同様に、所定の速度閾値との比較により判定する。
判定部223は、この物体の少し前の時刻における、前作業の判定結果が「積み込み」または「搬出」であれば(YES)、処理をステップS507に進め、これら以外であれば(NO)、処理をステップS506に進める。
判定部223は、検知物リストを参照し、同じ時刻における同じ作業領域90に存在する他の作業機械80(ホイールローダー)との間隔(隙間)が所定値未満であるかを判定する。例えば閾値(所定値)としては1mである。間隔が所定値未満であれば(YES)、処理をステップS505に進め、所定値以上であれば(NO)、処理をステップS504に進める。
判定部223は、ステップS504〜S507でそれぞれ、作業を「待機」、「積み込み」、「移動」、「搬出」と判定し、図12の処理を終了し、処理を図7に戻す(リターン)。
(作業工程「ズリ出し」、作業機械「ホイールローダー」)
(ステップS601)
図13のステップS601では、判定部223は、検知物リストのある時刻のデータにおいて、対象機、すなわち対象の作業機械80(ホイールローダー)が移動中であるか否かを判定する。移動中であれば(YES)、処理をステップS602に進め、移動中でなければ(NO)、処理をステップS503に進める。移動中であるか否かは、上述と同様に、所定の速度閾値との比較により判定する。
判定部223は、図5のステップS17で抽出した対象機の物体の特徴量を用いて、アーム位置が下がっているか否かを判定する。アームが下位置であれば(YES)、処理をステップS607に進め、下がっていなければ(NO)、処理をステップS606に進める。
判定部223は、検知物リストを参照し、同じ時刻における同じ作業領域90に存在する他の作業機械80(アーティタンプ)との間隔(隙間)が所定値未満であるかを判定する。間隔が所定値未満であれば(YES)、処理をステップS605に進め、所定値以上であれば、処理をステップS604に進める。
判定部223は、ステップS604〜S607でそれぞれ、作業を「待機」、「積み込み」、「移動1」、「移動2」と判定し、図13の処理を終了し、処理を図7に戻す(リターン)。ここで、移動1は、ズリ(土砂)をアームの先のバケットに積み込んだ状態での移動であり、移動2は、移動1以外(空身)の移動である。
(作業工程「吹付け」、対象物「作業者」)
次に、図17から図19を参照し、「吹付け」工程におけるステップS34の作業同定の各処理について説明する。図17は、「吹付け」工程における作業者85を対象とした、ステップS34のサブルーチンチャートである。図18は、「吹付け」工程で用いる作業判定基準である。図19は、吹付け工程における作業領域90の一例を示す模式図である。図19には、作業機械80として、吹付機(作業機械805)、ミキサー車(作業機械806)、ブレーカー(作業機械807)、および複数の作業者85(85a〜85e)が、作業領域9内に存在する。
ここでは、判定部223は、検知物リストのある時刻のデータにおいて、対象物である作業者85が移動中であるか否かを判定する。移動中であれば(YES)、処理をステップS704に進め、移動中でなければ(NO)、処理をステップS702に進める。移動中であるか否かは、上述と同様に、所定速度以上か、所定速度未満であるか否かにより判定する。ここでの閾値としては作業機械と同じ1km/hourを適用できるが、作業機械とは異なる閾値を適用してもよい。
判定部223は、吹付機805と、作業者85との間隔が所定値未満か否かを判定する。例えば、閾値としては、作業機械と同じ1mを適用できるが、異なる閾値を適用してもよい。間隔が所定値未満であれば(YES)、処理をステップS707に進め、所定値以上であれば(NO)、処理をステップS703に進める。
判定部223は、ミキサー車806と、作業者85との間隔が所定値未満か否かを判定する。間隔が所定値未満であれば(YES)、処理をステップS706に進め、所定値以上であれば(NO)、処理をステップS705に進める。
判定部223は、作業者85の特徴量により、作業者85が部材を運搬しているか否かを判定する。部材を運搬してれば(YES)、処理をステップS709に進め、運搬していなければ(NO)、処理をステップS708に進める。この運搬には、ハンドキャリーや、手押し台車による運搬が含まれる。
判定部223は、ステップS704〜S709でそれぞれ、作業を「待機」、「ミキサー車作業」、「吹付機作業」、「移動」、「部材運搬」と判定し、図17の処理を終了し、処理を図7に戻す(リターン)。
図20は、第2の実施形態に係る作業分析システム1bの主要構成を示すブロック図である。上述の第1の実施形態に係る作業分析システム1では、測定部10は、ライダー11を用いた。そして、作業分析装置20は、ライダー11から得られた測距点群データを用いて、物体の認識、および作業分析処理を行った。以下に説明する第2の実施形態では、ライダー11に換えて、ステレオカメラ12を用い、この測定データ(映像データ)を画像解析することで測距点群データを生成する。
ステレオカメラ12は、作業領域90を撮影し、映像を取得する。ステレオカメラ12は、ステレオ視できるように、2台のカメラから構成される。2台のカメラは、各光軸が同じ方向に向き、平行で、互いに所定距離(基線長)だけ離れて配置される。作業分析装置20は、カメラ12に対して、同期信号を出力し、両カメラの撮影タイミングを合わせて、作業領域90の撮影を行わせる。得られた両カメラの映像データ(映像信号)は、取得部221により取得される。認識部222は、両カメラの同時撮影した一対の映像データに対して、コントラスト調整、および2値化処理を行うことで、両画像それぞれから、撮影画像内の物体の形状、輪郭に対応する特徴点を抽出し、一致する特徴点の画像内での位置関係、および基線長のデータにより、特徴点それぞれまでの距離を算出する。これにより、映像データ内の各画素に対する距離値を得ることができる。このような処理により、作業分析装置20の制御部22は、作業領域90内の撮影データ(測定データ)から測距点群データを生成する。また、認識部222は、得られた映像を画像解析することで、特徴量を認識する。例えば、認識部222は、画像解析により、アームが上がっている状態か、下がっている状態かを認識する。
図21は、第3の実施形態に係る作業分析システム1cの主要構成を示すブロック図である。以下に説明する第3の実施形態では、ライダー11に換えて、カメラ13を用い、この測定データ(映像データ)を画像解析することで特徴量を認識する。また、作業領域90内で作業する作業機械80、および作業者85は、それぞれ1つ以上の位置情報デバイス401を保有し、この位置情報デバイス401の位置情報は、これと無線通信する位置情報検知部40により検知できる。さらに、作業機械80は、加速度センサー50が取り付けられている。
カメラ13は、作業領域90を撮影し、映像を取得する。カメラ13は、通常カメラ(単眼カメラ)であればよいが、第2の実施形態と同様にステレオカメラの構成としてもよい。認識部222は、カメラ13から得られた映像を解析することで特徴量を認識する。特徴量の認識は、予め記憶部21に記憶されている特徴量のパターンと、得られた映像とのパターンマッチングにより行うようにしてもよい。また、学習済みモデルを用いて認識するようにしてもよい。学習済みモデルは、例えばカメラ13により得られた映像と、その映像内にある物体の特徴量について、正解ラベル(「アームが上がっている」、「アームが下がっている」、「荷物を運搬している」等)を付与した多数の学習サンプルデータを用いることで教師あり学習により機械学習できる。
作業分析システム1bの認識部222は、位置情報検知40により検知した位置情報を、取得部221を介して取得する。この作業機械80、および作業者85が保有する位置情報デバイス401としては、ICタグ、またはスマートフォン等の可搬型のデバイスを適用できる。
作業機械80は、加速度センサー50、および無線通信部(図示せず)を有する。そして、分析システム1は、通信部23を介して、作業機械80から加速度センサー50の出力データを取得する。物体認識部222は、この加速度センサー50の出力データにより、作業機械80の移動状態、すなわち移動、停止の判定を行える。
出力生成部224は、判定部223により判定結果を用いて、ガントチャート、物体毎の作業割合、および、物体毎の作業領域内の動線もしくはヒートマップの少なくとも何れかに関する作業分析情報を生成するようにしてもよい。
例えば、第2の実施形態で適用した、位置情報デバイス401、および位置情報検知部40、ならびに加速度センサー50のいずれか、または両方の構成を第1の実施形態に適用してもよい。また、さらに、第2の実施形態におけるカメラ12を、第1の実施形態に併用してもよい。このようにすることにより、より精度よく、物体の認識、および物体の特徴量の認識を行えるので、より精度よく作業の判定を行える。
10 測定部
11 ライダー
12 ステレオカメラ
13 カメラ
20 作業分析装置
21 記憶部
22 制御部
221 取得部
222 認識部
223 判定部
224 出力生成部
23 通信部
30 PC端末
40 位置情報検知部
401 位置情報デバイス
50 加速度センサー
90 作業領域
80 作業機械
85 作業者
Claims (18)
- 作業領域内を測定し、時系列の測定データを取得する測定部と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
を備える作業分析システム。 - 記憶部に前記作業領域内で行われる作業計画であって1つ以上の前記作業を含む作業計画、および前記作業について実行されたか否かを判定するための作業判定基準が記憶され、前記判定部は、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、請求項1に記載の作業分析システム。
- 記憶部に前記作業領域内で行われる作業計画であって1つ以上の前記作業を含む作業計画が記憶され、
前記判定部は、前記作業計画、および作業判定基準に関する学習済みモデルを用いて、前記作業の判定を行い、
前記学習済みモデルは、入力を、前記物体認識部が認識した前記物体の位置、他の物体との位置関係、および前記特徴量の情報、出力を前記作業の分類の正解ラベルをセットとして教師あり学習したものである、請求項1に記載の作業分析システム。 - 前記測定部は、ライダーを含み、前記測定データとして、前記作業領域内を前記ライダーで測距して得られた測距点群データを取得する、請求項1から請求項3の何れかに記載の作業分析システム。
- 前記物体認識部は、前記測距点群データを用いて、前記物体を認識し、認識した前記物体の位置情報を判定する、
請求項4に記載の作業分析システム。 - 前記物体認識部は、前記測距点群データを用いて、前記特徴量の認識を行う、
請求項4、または請求項5に記載の作業分析システム。 - 前記測定部は、カメラを含み、前記測定データとして、前記作業領域内を撮影して得られた映像データを取得する、請求項1から請求項4の何れかに記載の作業分析システム。
- 前記物体認識部は、前記映像データを画像解析することで、前記物体の認識し、認識した前記物体の位置情報の判定を行う、請求項7に記載の作業分析システム。
- 前記物体認識部は、前記映像データを画像解析することで、前記特徴量の認識を行う、
請求項7、または請求項8に記載の作業分析システム。 - さらに、前記物体が保有する位置情報デバイスの位置情報を取得する取得部を備え、
前記物体認識部は、前記位置情報デバイスから取得した位置情報により、前記物体の認識、および前記物体の位置情報の判定を行う、請求項1から請求項4、および請求項7の何れかに記載の作業分析システム。 - 前記作業機械は、本体部と、該本体部に取り付けられ前記本体部に対する相対位置が変化する1つ以上の稼働部を有し、
前記取得部が、前記本体部、および前記稼働部にそれぞれ取り付けられた前記位置情報デバイスから取得した位置情報により、
前記物体認識部は、前記作業機械の前記特徴量を認識し、
前記判定部は、前記作業の判定を、認識した前記特徴量を用いて行う、請求項10に記載の作業分析システム。 - 前記判定部は、時系列の前記物体の位置の変化から検出した、前記物体の移動速度を用いて、前記作業を判定する、請求項1から請求項11の何れかに記載の作業分析システム。
- 前記判定部は、前記物体の前記移動速度から判断した、前記物体の移動、および停止の状態を用いて、前記作業を判定する、請求項12に記載の作業分析システム。
- 前記作業機械に取り付けられた加速度センサーからの出力データを取得する取得部を備え、
前記判定部は、前記加速度センサーからの出力データから判断した、前記作業機械の移動、および停止の状態を用いて前記作業を判定する、請求項12に記載の作業分析システム。 - 前記判定部による判定結果を用いて、ガントチャート、物体毎の作業割合、および、物体毎の前記作業領域内の動線もしくはヒートマップの少なくとも何れかに関する作業分析情報を生成する出力生成部を、さらに備える、請求項1から請求項14の何れかに記載の作業分析システム。
- 作業領域内を測定する測定部から、時系列の測定データを取得する取得部と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定する物体認識部と、
前記物体認識部が認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定する判定部と、
を備える作業分析装置。 - 作業領域内を測定する測定部を備える、作業分析システムを制御するコンピューターで実行される作業分析プログラムであって、
前記測定部により作業領域内を測定し、時系列の測定データを取得するステップ(a)と、
取得した前記測定データから、作業機械および人を含む物体を認識し、認識した前記物体の位置情報、および前記物体の形状に関する特徴量を判定するステップ(b)と、
前記ステップ(b)で認識した、前記物体の位置、他の物体との位置関係、および前記特徴量から、前記作業領域内で行われた作業を判定するステップ(c)と、
を含む処理を前記コンピューターに実行させるための作業分析プログラム。 - 前記処理は、前記作業領域内で行われる1つ以上の前記作業を含む作業計画、および前記作業について実行されたか否かを判定するための作業判定基準を取得するステップ(d)を、さらに含み、
前記ステップ(c)では、前記作業計画、および前記作業判定基準を用いて、前記作業の判定を行う、請求項17に記載の作業分析プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098114A JP7277256B2 (ja) | 2019-05-24 | 2019-05-24 | 作業分析システム、作業分析装置、および作業分析プログラム |
EP20813794.3A EP3979156A4 (en) | 2019-05-24 | 2020-04-02 | Work analysis system, work analysis device, and work analysis program |
PCT/JP2020/015195 WO2020241043A1 (ja) | 2019-05-24 | 2020-04-02 | 作業分析システム、作業分析装置、および作業分析プログラム |
US17/613,644 US20220237533A1 (en) | 2019-05-24 | 2020-04-02 | Work analyzing system, work analyzing apparatus, and work analyzing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098114A JP7277256B2 (ja) | 2019-05-24 | 2019-05-24 | 作業分析システム、作業分析装置、および作業分析プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020194243A true JP2020194243A (ja) | 2020-12-03 |
JP7277256B2 JP7277256B2 (ja) | 2023-05-18 |
Family
ID=73547519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019098114A Active JP7277256B2 (ja) | 2019-05-24 | 2019-05-24 | 作業分析システム、作業分析装置、および作業分析プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220237533A1 (ja) |
EP (1) | EP3979156A4 (ja) |
JP (1) | JP7277256B2 (ja) |
WO (1) | WO2020241043A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276285A1 (ja) * | 2021-06-29 | 2023-01-05 | コベルコ建機株式会社 | 侵入検出システム |
JP7354182B2 (ja) | 2021-05-31 | 2023-10-02 | 株式会社ブロードリーフ | モバイル作業分析装置及び作業分析方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076888A (ja) * | 2019-11-05 | 2021-05-20 | 株式会社日立製作所 | 作業認識装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008063775A (ja) * | 2006-09-06 | 2008-03-21 | Shin Caterpillar Mitsubishi Ltd | 建設機械の作業機姿勢特定装置および作業機姿勢特定方法 |
JP2013044317A (ja) * | 2011-08-26 | 2013-03-04 | Kajima Corp | 重機のアイドリング判定方法、及び、アイドリング判定システム |
JP2016201074A (ja) * | 2015-04-14 | 2016-12-01 | 株式会社コンピュータシステム研究所 | 工事管理支援装置、工事管理支援プログラムおよび記憶媒体 |
JP2017126129A (ja) * | 2016-01-12 | 2017-07-20 | 株式会社A−スタイル | 現場作業員管理システム |
WO2017130446A1 (ja) * | 2016-01-29 | 2017-08-03 | 日揮株式会社 | プロジェクト管理装置、プロジェクト管理システム、プロジェクト管理方法およびプログラム |
JP2017229071A (ja) * | 2017-06-27 | 2017-12-28 | パナソニックIpマネジメント株式会社 | ドアホンシステムおよび通信方法 |
WO2018061717A1 (ja) * | 2016-09-30 | 2018-04-05 | 日立建機株式会社 | 作業車両 |
US20180165502A1 (en) * | 2016-12-13 | 2018-06-14 | Caterpillar Inc. | Vehicle Classification and Vehicle Pose Estimation |
US20180323816A1 (en) * | 2017-05-02 | 2018-11-08 | Deere & Company | Smart attachment for a work vehicle |
WO2019012993A1 (ja) * | 2017-07-14 | 2019-01-17 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
WO2019093152A1 (ja) * | 2017-11-10 | 2019-05-16 | 株式会社小松製作所 | 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9222771B2 (en) * | 2011-10-17 | 2015-12-29 | Kla-Tencor Corp. | Acquisition of information for a construction site |
JP6496182B2 (ja) * | 2015-04-28 | 2019-04-03 | 株式会社小松製作所 | 施工計画システム |
JP2015166597A (ja) * | 2015-07-02 | 2015-09-24 | 鹿島建設株式会社 | 重機の動作状況の把握方法 |
JP6979015B2 (ja) * | 2016-03-30 | 2021-12-08 | 株式会社小松製作所 | 作業機械を用いて施工する施工現場のシミュレーションシステム及びシミュレーション方法 |
US10234856B2 (en) * | 2016-05-12 | 2019-03-19 | Caterpillar Inc. | System and method for controlling a machine |
US10640952B2 (en) * | 2016-12-09 | 2020-05-05 | Caterpillar Inc. | System and method for modifying a material movement plan |
WO2018193880A1 (ja) * | 2017-04-21 | 2018-10-25 | 日立Geニュークリア・エナジー株式会社 | プラント設備機器認識システムおよびプラント設備機器認識方法 |
JP6824838B2 (ja) | 2017-07-07 | 2021-02-03 | 株式会社日立製作所 | 作業データ管理システム及び作業データ管理方法 |
JP7114885B2 (ja) * | 2017-11-29 | 2022-08-09 | 沖電気工業株式会社 | 作業現場監視装置およびプログラム |
JP2019098114A (ja) | 2017-12-08 | 2019-06-24 | 株式会社高尾 | 弾球遊技機 |
US11055841B2 (en) * | 2018-02-18 | 2021-07-06 | Constru Ltd | System and method for determining the quality of concrete from construction site images |
US20190188811A1 (en) * | 2018-02-17 | 2019-06-20 | Constru Ltd | System and method for generating financial assessments based on construction site images |
US11118453B2 (en) * | 2018-05-16 | 2021-09-14 | Caterpillar Inc. | System and method of layering material |
US10975546B2 (en) * | 2018-05-21 | 2021-04-13 | Caterpillar Inc. | System and method of layering material |
US11332910B2 (en) * | 2018-07-26 | 2022-05-17 | Built Robotics, Inc. | Excavating earth from a dig site using an excavation vehicle |
US20200117201A1 (en) * | 2018-10-15 | 2020-04-16 | Caterpillar Paving Products Inc. | Methods for defining work area of autonomous construction vehicle |
EP3660231B1 (en) * | 2018-11-08 | 2022-02-23 | Intsite Ltd | System and method for autonomous operation of heavy machinery |
JP2020084459A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社小松製作所 | 作業機を含む作業機械を自動制御するためのシステム及び方法 |
-
2019
- 2019-05-24 JP JP2019098114A patent/JP7277256B2/ja active Active
-
2020
- 2020-04-02 WO PCT/JP2020/015195 patent/WO2020241043A1/ja unknown
- 2020-04-02 EP EP20813794.3A patent/EP3979156A4/en active Pending
- 2020-04-02 US US17/613,644 patent/US20220237533A1/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008063775A (ja) * | 2006-09-06 | 2008-03-21 | Shin Caterpillar Mitsubishi Ltd | 建設機械の作業機姿勢特定装置および作業機姿勢特定方法 |
JP2013044317A (ja) * | 2011-08-26 | 2013-03-04 | Kajima Corp | 重機のアイドリング判定方法、及び、アイドリング判定システム |
JP2016201074A (ja) * | 2015-04-14 | 2016-12-01 | 株式会社コンピュータシステム研究所 | 工事管理支援装置、工事管理支援プログラムおよび記憶媒体 |
JP2017126129A (ja) * | 2016-01-12 | 2017-07-20 | 株式会社A−スタイル | 現場作業員管理システム |
WO2017130446A1 (ja) * | 2016-01-29 | 2017-08-03 | 日揮株式会社 | プロジェクト管理装置、プロジェクト管理システム、プロジェクト管理方法およびプログラム |
WO2018061717A1 (ja) * | 2016-09-30 | 2018-04-05 | 日立建機株式会社 | 作業車両 |
US20180165502A1 (en) * | 2016-12-13 | 2018-06-14 | Caterpillar Inc. | Vehicle Classification and Vehicle Pose Estimation |
US20180323816A1 (en) * | 2017-05-02 | 2018-11-08 | Deere & Company | Smart attachment for a work vehicle |
JP2017229071A (ja) * | 2017-06-27 | 2017-12-28 | パナソニックIpマネジメント株式会社 | ドアホンシステムおよび通信方法 |
WO2019012993A1 (ja) * | 2017-07-14 | 2019-01-17 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
WO2019093152A1 (ja) * | 2017-11-10 | 2019-05-16 | 株式会社小松製作所 | 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法 |
Non-Patent Citations (1)
Title |
---|
渡辺 孝弘 他: "画像センサーとLiDARによるセンシング融合技術を用いた現場監視ソリューション", OKIテクニカルレビュー, vol. 第230号, Vol.84, No.2, JPN6020020229, 20 December 2017 (2017-12-20), pages 14 - 17, ISSN: 0004994928 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7354182B2 (ja) | 2021-05-31 | 2023-10-02 | 株式会社ブロードリーフ | モバイル作業分析装置及び作業分析方法 |
JP7481559B2 (ja) | 2021-05-31 | 2024-05-10 | 株式会社ブロードリーフ | 作業分析装置、作業分析方法及び作業分析プログラム |
WO2023276285A1 (ja) * | 2021-06-29 | 2023-01-05 | コベルコ建機株式会社 | 侵入検出システム |
Also Published As
Publication number | Publication date |
---|---|
JP7277256B2 (ja) | 2023-05-18 |
US20220237533A1 (en) | 2022-07-28 |
EP3979156A1 (en) | 2022-04-06 |
EP3979156A4 (en) | 2022-06-29 |
WO2020241043A1 (ja) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
US20230288209A1 (en) | Aligning measured signal data with slam localization data and uses thereof | |
WO2020241043A1 (ja) | 作業分析システム、作業分析装置、および作業分析プログラム | |
US20210064024A1 (en) | Scanning environments and tracking unmanned aerial vehicles | |
US20180348346A1 (en) | Hybrid-View Lidar-Based Object Detection | |
US20190310651A1 (en) | Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications | |
WO2019018315A1 (en) | ALIGNMENT OF MEASURED SIGNAL DATA WITH SLAM LOCATION DATA AND ASSOCIATED USES | |
WO2021253430A1 (zh) | 绝对位姿确定方法、电子设备及可移动平台 | |
WO2021072710A1 (zh) | 移动物体的点云融合方法、系统及计算机存储介质 | |
CN110488811B (zh) | 一种基于社交网络模型的机器人对行人轨迹预测的方法 | |
US10598791B2 (en) | Object detection based on Lidar intensity | |
RU2656711C2 (ru) | Способ и система обнаружения и сопровождения движущихся объектов на основе данных трехмерного датчика | |
CN203288083U (zh) | 一种激光三维扫描车辆装置 | |
US11790546B2 (en) | Point cloud annotation for a warehouse environment | |
CN109856643A (zh) | 基于3d激光的可移动式无感全景感知方法 | |
KR20210116415A (ko) | 라이다 누화를 완화시키기 위한 라이다 시스템 설계 | |
KR20230026130A (ko) | 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법 | |
WO2018180454A1 (ja) | 移動体 | |
KR102252295B1 (ko) | 실내 토폴로지맵 생성 방법 및 이를 위한 자율주행 로봇 | |
JPWO2020054110A1 (ja) | 物体検出システム、および物体検出方法 | |
US20230417912A1 (en) | Methods and systems for statistical vehicle tracking using lidar sensor systems | |
Catalano et al. | Towards robust uav tracking in gnss-denied environments: a multi-lidar multi-uav dataset | |
KR102618680B1 (ko) | 영상과 라이다를 이용한 실시간 3차원 물체 인식 및 추적하는 시스템 | |
Teizer et al. | Experiments in real-time spatial data acquisition for obstacle detection | |
TW202349927A (zh) | 移動物體檢測方法、裝置、電子設備及存儲介質 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7277256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |